在今日于武汉举行的百度Create开发者大会上,百度创始人兼首席执行官李彦宏正式发布了文心大模型4.5 Turbo与文心大模型X1 Turbo两款全新大模型。此次发布不仅是百度在人工智能领域取得的又一重要进展,也预示着国内大模型应用进入新的发展阶段。
面对日趋激烈的市场竞争,以及开发者群体中普遍存在的焦虑情绪,李彦宏明确指出了当前大模型发展的机遇与挑战。他认为,尽管市场上涌现出诸多优秀模型,例如DeepSeek,但仍存在模态局限、幻觉率高、运行速度慢及成本高昂等问题。百度此次发布的Turbo版大模型,正是为了解决这些痛点,旨在以更优的性价比和更强大的性能赋能开发者。
李彦宏强调,AI应用才是创造价值的核心所在。他以犀利的视角指出,单纯追求模型的数量增长,而忽略实际应用,将造成社会资源的浪费。 早在之前,李彦宏就曾公开批评过国内“百模大战”的现象,并呼吁行业聚焦超级应用的开发。 这种观点并非否定模型的重要性,而是强调模型必须服务于实际应用场景,否则将失去其存在的意义。
大会上,李彦宏详细介绍了文心大模型4.5 Turbo和文心大模型X1 Turbo的优势。相较于文心4.5,Turbo版在速度上实现了显著提升,同时大幅降低了使用成本,降幅高达80%。具体而言,文心大模型4.5 Turbo的每百万tokens输入价格仅为0.8元,输出价格为3.2元,仅为DeepSeek-V3的40%。而文心大模型X1 Turbo的价格更具竞争力,输入价格为1元/百万tokens,输出价格为4元/百万tokens,仅为DeepSeek R1调用价格的25%。如此大幅度的价格下降,无疑将降低开发者的使用门槛,加速AI应用的普及。

值得一提的是,百度还展示了基于昆仑芯三代P800的中国首个全自研3万卡集群。据介绍,该集群能够同时承载多个千亿参数大模型进行全量训练,并支持1000个客户进行百亿参数大模型的精调。 这不仅展现了百度在算力基础设施方面的强大实力, 也为国内大模型的持续发展提供了坚实的保障。
在演讲的最后,李彦宏充满信心地表示:“现在,在中国开发应用,我们有底气。我坚信,应用创造未来,开发者创造未来。” 这句话充分表达了百度对于国产大模型生态的信心, 以及对开发者群体的殷切期望,相信在更优的算力支持,更低的价格成本下,国内AI应用市场有望迎来爆发式增长。