微调
-
清华等团队238篇遥感微调研究:技术脉络与九大未来方向
遥感大模型微调:清华等团队238篇文献梳理,洞察技术脉络与九大未来趋势 在人工智能浪潮席卷万物的当下,遥感图像作为一种极其重要的数据源,正以前所未有的速度被深度挖掘和利用。从城市规…
-
Thinker发布:降低大模型微调门槛,Thinking Machines Lab意欲重塑早期OpenAI
在深度学习飞速发展的今天,模型微调(Fine-tuning)的门槛一直是悬在许多研究者头上的一把达摩克利斯之剑。巨大的GPU成本、复杂的训练环境、以及难以驯服的分布式系统,让原本就…
-
思考机器新研究:LoRA满足两条件,学习率10倍可媲美全参微调
在飞速迭代的大模型时代,模型的效率与定制化能力成为了推动AI前进的“双子星”。而近期的一个研究成果,则为我们描绘了一幅新的技术图景。Thinking Machines团队发布的最新…
-
GPT-4 微调限时免费开放,每日赠送百万训练 token
免费时间截止到9月23日 一觉醒来,OpenAI又上新功能了: GPT-4o正式上线微调功能。 并且官方还附赠一波福利:每个组织每天都能免费获得100万个训练token,用到9月2…
-
微软发布38亿参数模型,性能媲美70亿参数模型,适用训练和微调
还发现了推理优化“Scaling Law” 克雷西 发自 凹非寺AI快讯网 | 只需激活60%的参数,就能实现与全激活稠密模型相当的性能。 微软亚洲研究院的一项新研究,实现了模型的…