价格战凶猛,AI小模型狂飙

价格战凶猛,AI 小模型狂飙

21 世纪经济报道记者孔海丽、实习生刘清怡 北京报道

AI 小模型大爆发,成为 AI 巨头的新角力赛场。大模型价格战“卷生卷死”,投入了巨额资金的 AI 企业,亟需在商业故事上再进一步,最近纷纷祭出了自家低成本、易部署的小模型,新一轮较量拉开。

HuggingFace 发布了 SmoLLM – 135M、360M 和 1.7B,仅使用 650B 个 token 进行训练,性能却超过了 Qwen 1.5B、Phi 1.5B。隔日,Mistral AI 和英伟达联合发布 Mistral Nemo,被称为“Mistral AI 最佳小型模型”,易于使用,可以直接替代任何使用 Mistral 7B 的系统。

就在同一天,OpenAI 下场“血拼”,推出了 GPT-4o 的迷你版——GPT-4o Mini,称这款新模型是“功能最强、性价比最高的小参数模型”,并将其作为展示模型,替换了 GPT-3.5 的网页版“台前”位置。苹果也不甘示弱,与 OpenAI 同日发布了 DCLM 小模型,并且发布即开源。苹果 ML 小组研究科学家 Vaishaal Shankar 说“这是迄今为止性能最好的真正开源的模型”。

这些模型参数小、占内存少,在特定场景中,经过精调后使用效果可以媲美大模型,成为性价比之选。“小模型一定是更容易实现价值的。”IBM 中国数据与人工智能首席架构师徐孝天在接受 21 世纪经济报道记者采访时表示:“一批专业小模型配合 agents 实现业务流的整合,功能和经济性上都会更加可行。”

小模型赛道开“卷”

AI 巨头们密集发布小模型,既比性能,还拼价格。根据 Open AI 官网,在 MMLU、MGSM、HumanEval、MMMU 等基准测试中,GPT-4o mini 均展现出了比 GPT-3.5 Turbo 和 Gemini Flash、Claude Haiku 等小模型更加出色的文本和视觉推理、数学推理、编码和多模态推理能力,尤其是数学推理和编码能力远胜过 GPT-3.5 Turbo 和其他小模型,稍弱于 GPT-4o。在最新的 LMSYS 盲测竞技场排名中,GPT-4o mini 还取得了与 GPT-4o 并列第一的好成绩,连 OpenAI 的 CEO Sam Altman 也难掩激动的心情,在社交媒体平台上发文称,“我们从未对任何一项评估感到如此兴奋。”

除了优异的性能,OpenAI 还拿出了低价杀手锏。7 月 18 日上线时,OpenAI 宣布 GPT-4o mini 的定价为每百万输入 token 15 美分和每百万输出 token 60 美分,比 GPT-3.5 Turbo 便宜 60% 以上。7 月 24 日,OpenAI 再次宣布,从即日起至 9 月 23 日,免费为 4 级、5 级用户提供 GPT-4o mini 微调服务,每天限制 200 万 token,超过的部分按照每 100 万 token 3 美元收费。OpenAI 称:“我们期待 GPT-4o mini 将扩大人工智能的应用范围,使人工智能更加实惠。”

平安证券研报认为,GPT-4omini 是价格显著下降的新一代入门级别人工智能“小模型”,兼具性能与性价比。当前全球范围内的大模型逐渐呈现由单方面的性能角逐,转向性能与实用性并重的发展趋势。大模型能力达到一定水平时必然会走向应用,大模型厂商通过提升其产品性价比,助推下游应用端的推广部署,有望加速大模型产业链商业闭环的形成。

在 GPT-4o mini 之后发布的苹果 DCLM 模型同样引人瞩目,DCLM 全面开源了代码、权重、训练流程及数据集。DCLM 分为 14 亿和 70 亿参数两种规模,其 70 亿参数版本超越了 Mistral-7B,性能接近 Llama 3、gemma。在 MMLU(5-shot) 基准测试中,DCLM-7B 的准确率为 63.7%。根据研究人员的说法,这一性能比此前最先进的开放数据语言模型 MAP-Neo 提高了 6.6%,并减少了 40% 的计算量。更重要的是,这一结果超越了准确率为 62.7% 的 Mistral-7B-v0.3,并接近于准确率为 64.3% 的 Gemma 8B、66.2% 的 Llama3 8B 和 69.9% 的 Phi-3 7B。

比起“越大越好”,苹果更倾向于走小模型路线。今年 4 月,苹果公布的小模型家族四款预训练的大模型 OpenELM,体量极小,彼时已在朝着“让人工智能在苹果设备上本地运行”目标迈进。6 月,苹果曾透露自己的 AI 发展路线图,计划把小模型顺利嵌进移动装备,不仅能达到“更快速、更安全”的目的,还一举解决了移动端设备与模型融合的终极难题。

Mistral NeMo 是 Mistral AI 与 Nvidia 合作构建的,该模型经过先进的微调和对准阶段,在遵循精确指令、推理、处理多轮对话和生成代码方面表现优异。据了解,Mistral NeMo 主要面向企业环境,目的是让企业在不需要大量云资源的情况下实施人工智能解决方案。

在接受 Venturebeat 采访时,英伟达应用深度学习研究副总裁 Bryan Catanzaro 详细阐述了小型模型的优势。他说:“小型模型更容易获取和运行,可以有不同的商业模式,因为人们可以在家中自己的系统上运行它们。”

入局小模型赛道背后

AI 巨头们为何纷纷开辟小模型赛道?部分或出于成本因素的考量。

大模型的开发和运行成本高昂,即使像 OpenAI 这样的巨头也难以负担得起。近日,有知情人士分析称“OpenAI 今年可能会亏损 50 亿美元,面临着在 12 个月内资金耗尽的风险”。截至今年 3 月,OpenAl 花费近 40 亿美元租用微软的服务器,以运行 ChatGPT 及其底层大语言模型 (LLM)。除了运行 ChatGPT 之外,OpenAl 包括数据费用在内的培训成本今年可能会飙升至 30 亿美元。据知情人士透露,去年,OpenAl 加快了对新 AI 的训练,速度超过了最初的计划,OpenAl 原本计划在这类成本上花费约 8 亿美元,但最终的支出要多得多。

相较之下,小模型成本低、响应速度快,而且可以本地化运行,更能适应个性化、精准化的使用需求。业内人士表示:“在全球 AI 硬件供不应求的前提下,小模型意味着更低的部署和训练成本,其产出效果足以应对一些特定任务。”

有国内 AI 企业相关业务负责人告诉 21 世纪经济报道记者,小参数规模可以大幅节省推理成本,模型训练与调整所需的硬件成本远远低于大模型,成熟开发者甚至可以低成本训练垂直模型,这些操作的成本都远低于大模型。

OpenAI 创始成员、特斯拉前 AI 高级总监 Andrej Karpathy 最近的预测颇有代表性,他提出,生成式模型的尺寸竞争将会逆转,比拼谁的模型更小、更智能。在 Andrej Karpathy 的解释中,当前大模型如此之大,是因为训练期间仍然非常浪费,虽然大模型在记忆方面非常出色,但这也意味着大模型记住了大量无关紧要的细节,而那些内容本不应该在特定问题中反复被调用。

对于小模型来说,训练目标变得更简单、直接、高效,让 AI 更直接地学到更有用的信息。不过,大模型与小模型并非“二选一”,他们的发展路线仍然有着相互借鉴的意义。Andrej Karpathy 称:“模型必须先变大,然后才能变小。因为我们需要大模型将数据重构、塑造成理想的形式,一个模型帮助生成下一个模型的训练数据,逐渐得到完美的训练集,再喂给小模型,而后者不需要完全记住所有的知识,只是偶尔需要查找一些东西以确保准确。”

李彦宏也曾在百度 AI 开发者大会 Create 2024 上表示,未来大型的 AI 原生应用基本都是 Moe 架构,即大小模型的混用。李彦宏还称,通过大模型压缩蒸馏出一个基础模型,然后再用数据去训练,比从头开始训练小模型的效果要好很多,比基于开源模型训练出来的模型效果更好,速度更快,成本更低。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 7月 30日 上午11:35
    下一篇 2024年 7月 30日 上午11:56

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!