LoRA
-
思考机器新研究:LoRA满足两条件,学习率10倍可媲美全参微调
在飞速迭代的大模型时代,模型的效率与定制化能力成为了推动AI前进的“双子星”。而近期的一个研究成果,则为我们描绘了一幅新的技术图景。Thinking Machines团队发布的最新…
-
上交大&哈佛推出新微调框架,比LoRA更高效,瞄准特定任务方向
微调需要的算力更少了 DV lab 投稿 AI快讯网 | 比LoRA更高效的模型微调方法来了—— 以常识推理为例,在参数量减少8~16倍的情况下,两种方法能达到相同效果。 新方法名…