李彦宏发布文心大模型Turbo版,挑战DeepSeek成本效率

在今日于武汉举行的百度Create开发者大会上,百度创始人兼首席执行官李彦宏正式发布了文心大模型4.5 Turbo与文心大模型X1 Turbo两款全新大模型。此次发布不仅是百度在人工智能领域取得的又一重要进展,也预示着国内大模型应用进入新的发展阶段。

面对日趋激烈的市场竞争,以及开发者群体中普遍存在的焦虑情绪,李彦宏明确指出了当前大模型发展的机遇与挑战。他认为,尽管市场上涌现出诸多优秀模型,例如DeepSeek,但仍存在模态局限、幻觉率高、运行速度慢及成本高昂等问题。百度此次发布的Turbo版大模型,正是为了解决这些痛点,旨在以更优的性价比和更强大的性能赋能开发者。

李彦宏强调,AI应用才是创造价值的核心所在。他以犀利的视角指出,单纯追求模型的数量增长,而忽略实际应用,将造成社会资源的浪费。 早在之前,李彦宏就曾公开批评过国内“百模大战”的现象,并呼吁行业聚焦超级应用的开发。 这种观点并非否定模型的重要性,而是强调模型必须服务于实际应用场景,否则将失去其存在的意义。

大会上,李彦宏详细介绍了文心大模型4.5 Turbo和文心大模型X1 Turbo的优势。相较于文心4.5,Turbo版在速度上实现了显著提升,同时大幅降低了使用成本,降幅高达80%。具体而言,文心大模型4.5 Turbo的每百万tokens输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%。而文心大模型X1 Turbo的价格更具竞争力,输入价格为1元/百万tokens,输出价格为4元/百万tokens,仅为DeepSeek R1调用价格的25%。如此大幅度的价格下降,无疑将降低开发者的使用门槛,加速AI应用的普及。

李彦宏发布文心大模型Turbo版,挑战DeepSeek成本效率

值得一提的是,百度还展示了基于昆仑芯三代P800的中国首个全自研3万卡集群。据介绍,该集群能够同时承载多个千亿参数大模型进行全量训练,并支持1000个客户进行百亿参数大模型的精调。 这不仅展现了百度在算力基础设施方面的强大实力, 也为国内大模型的持续发展提供了坚实的保障。

在演讲的最后,李彦宏充满信心地表示:“现在,在中国开发应用,我们有底气。我坚信,应用创造未来,开发者创造未来。” 这句话充分表达了百度对于国产大模型生态的信心, 以及对开发者群体的殷切期望,相信在更优的算力支持,更低的价格成本下,国内AI应用市场有望迎来爆发式增长。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2025年 4月 25日 上午11:26
下一篇 2025年 4月 25日 下午1:18

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!