大模型价格战谁会受益

从最初的讳莫如深,到如今的开诚布公,大模型价格战已经打响两个月。从业者们主动或被动地卷入其中。在 7 月 4 日至 6 日举办的 2024 世界人工智能大会期间,大模型价格战依然是热门话题,但参与各方强调的不再是价格本身,而是直击商业模式、可持续性等更为深刻的问题。

“近两个月,通义千问开源模型下载量增长 2 倍,突破 2000 万次。”“当你处在激烈竞争的环境中,需要让业务效率比同行更高、成本比同行更低。”“价格战由技术驱动,但不能过度。”7 月 6 日,2024 世界人工智能大会闭幕,科技大厂、创业公司的大模型卡位赛不会停。没有人能够断言哪种商业模式能够最终胜出。熬过了价格战当打之年,或许答案便会揭晓。

大模型价格战谁会受益

价格战:应该,但不“正常”

今年 5 月初,人工智能公司 DeepSeek 喊出性能与 GPT-4 一致但价格只有百分之一的口号,打破了此前大模型“加量不加价”的默契。不久后,国内大模型公司纷纷化身价格“屠夫”,媒体将夸张的降价比例放进标题,从分到厘最后免费,一如网约车、团购大战那般轰轰烈烈。

“大模型价格走低是非常正向的事,因为就应该降低。”MiniMax 创始人兼 CEO 闫俊杰在 2024 世界人工智能大会上表态。自 2024 年开始,MiniMax 对偏生产力的场景更加重视,与 B 端客户走的也越来越近。闫俊杰经常出现在各种活动中,他认为,“对于大部分企业来说,大模型降价的好处是会有更多用户,在线时长、流量,产生更大价值。基于流量和价值找到一种好的商业模式”。

根据摩尔定律,集成电路上可容纳的晶体管数量大约 18—24 个月增加一倍,性能将提升一倍。无论摩尔定律在大模型行业是否仍然有效,技术升级——成本下降的真理是不会变的。

“价格下降是技术驱动,技术越来越好,成本越来越低,但过度就不好了。”智谱 AI CEO 张鹏话锋一转,提到了迈克尔·波特的价值链理论。

“真正的价值链应该是逐级的,大家往同一件事不断添加自己的价值,对外提供更好的服务,给自己创造更大的价值。相应地,大家创造的价值应该反向再传递回来,大家各自得到自己的那部分,这是一个正常的、合理的价值链。”他认为,“价格战阶段,用户肯定是得益的,但是不长久,这不是一个正常的商业逻辑。”

关于商业模式

在其他场合,张鹏也表达过对价格战的担忧。月之暗面创始人兼 CEO 杨植麟也把价格战和价值联系在一起。在他看来,大模型商业模式建立在用于推理的算力显著超过训练的算力,C 端的推理成本显著低于获客成本,那时可能会产生新的商业模式,不会像现在在 B 端打价格战。

创业公司和大公司、大公司和大公司之间,对商业可持续性的思考或许是两套逻辑。显而易见的区别是大模型 to C 是否免费,以及通过什么方式收费。

不变的是,每个大模型入局者都希望将自己和生态伙伴织成一张网,互补也好抱团也罢,把 to C、to B 的通道搞得多多的。

不久前,闫俊杰、杨植麟作为合作伙伴为钉钉站台。执行生态战略的钉钉宣布对所有大模型厂商开放,在通义大模型的基础上,和 MiniMax、月之暗面等 6 家大模型厂商达成合作。钉钉将根据各家大模型的特点,基于场景选择不同的合作方,比如和月之暗面基于长文理解和输出能力,探索教育类应用场景。

从供应侧到需求侧的传导很快。参与 2024 世界人工智能大会对话环节前,御风未来创始人兼 CEO 谢陵收到一家国外客户的需求——“石油管道漏油识别怎么解决”。御风未来需要跟人工智能相关企业合作,客户对飞行器最看重的就是 AI 功能。“我们肯定希望 AI 的价格降下来,(这样)我们能为更多的客户解决问题,能卖更多的飞机”,谢陵说自己是价格战的受益者

继续争夺

大企业则通过各种数据较劲。2024 世界人工智能大会期间,阿里云 CTO 周靖人透露,降价后大批客户在阿里云上直接调用大模型,近两个月,通义千问开源模型下载量增长 2 倍,突破 2000 万次,阿里云百炼服务客户数从 9 万增长至 23 万,涨幅超 150%,客户包括一汽、微博、完美世界等。

几乎同时,百度智能云隔空秀肌肉:大模型日均调用量突破 5 亿次、二季度环比增长 150%;累计服务 15 万家企业用户、累计帮助用户精调了 2.1 万个大模型;帮助用户开发出 55 万个 AI 原生应用。百度还宣布文心大模型 4.0 Turbo(ERNIE 4.0 Turbo)面向企业客户全面开放,输入输出价格分别是 0.03 元/千 tokens、0.06 元/千 Tokens。文心旗舰款模型 ERNIE 4.0 和 ERNIE 3.5 大幅降价;ERNIE Speed、ERNIE Lite 两款主力模型持续免费。

关于开源与闭源的争论也没有偃旗息鼓的迹象。“很多人混淆了模型开源和代码开源的概念”,百度创始人兼 CEO 李彦宏开了话头,他认为模型开源只能拿到一堆参数,还要在做 SFT、安全对齐,即使是拿到对应源代码,也不知道是用了多少比例、什么比例的数据去训练这些参数,无法做到众人拾柴火焰高。

“如果开源想追平闭源,它需要有更大的参数规模,这意味着推理成本更高、反应速度更慢。很多人拿开源模型来做改款,以为这样可以更好地服务自己的个性化需求,殊不知这就变成了一个孤本模型,既无法从基础模型的持续升级中获益,也没办法跟别人共享算力。”李彦宏分享了自己的论据。

周靖人继续强调阿里云的开源立场,“两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距”。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 7月 8日 下午12:16
    下一篇 2024年 7月 8日 下午12:37

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!