GLM-5大模型赋能九大国产芯片,联手华为、寒武纪、摩尔线程等开拓AI新基建

智谱GLM-5大模型参数量达7440亿,重点提升编程与智能体能力,海外测试其代理编程能力世界第一。得益于DSA稀疏注意力机制、异步RL基础设施、异步Agent RL算法以及全面兼容华为、寒武纪等七大国产芯片平台,GLM-5在性能和成本上均有显著提升。

       <p>2月22日,国产AI大模型领域的春节档迎来了多款重磅产品的集中亮相。在此热潮中,智谱AI发布的GLM-5模型凭借其卓越的性能表现,迅速成为备受关注的焦点之一。</p>

智谱官方介绍,GLM-5在上一代GLM-4.X的基础上,将模型参数量翻倍至7440亿,并在编程与智能体能力方面进行了大幅度的提升。这些优化不仅体现在模型规模的显著增长,更带来了质的性能飞跃。

此前,有海外AI领域的博主对GLM-5进行了评测,数据显示其在代理编程能力方面位居世界第一,综合编程能力则位列世界第三。这一成绩仅次于Anthropic的Opus 4.6及Google的Gemini 3 Pro,但已超越了Opus 4.5,充分展现了GLM-5在复杂编程任务上的强大实力。

GLM-5的发布一经公布便引发了市场的热烈反响,用户需求的激增一度导致算力供应紧张,甚至影响了用户体验。对此,智谱AI官方发布了致歉信,并提出了相应的补偿方案,这侧面印证了GLM-5在用户心目中的高价值和模型能力的强大吸引力。

GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列

今日,智谱AI发布的GLM-5技术报告,详细阐述了其性能提升背后的四大核心技术创新:

1. **引入DSA(DeepSeek Sparse Attention)稀疏注意力机制**:该机制有效降低了模型的训练和推理成本。相较于GLM-4.5所采用的标准MoE架构,DSA机制能够根据Token的重要性动态分配注意力资源,从而在不牺牲长上下文理解和推理深度的前提下,显著削减算力开销。依托于此,GLM-5得以将模型参数量扩展到7440亿,并将训练Token规模提升至28.5万亿,实现了规模与效率的双重突破。

2. **构建全新的异步RL基础设施**:在GLM-4.5时期“训练与推理解耦”的设计基础上,智谱的新基础设施进一步实现了“生成与训练”的深度解耦,最大化地提升了GPU利用率。该系统还支持模型进行大规模智能体(Agent)轨迹探索,有效解决了以往同步瓶颈对迭代速度造成的拖累,使得强化学习(RL)后训练流程的效率获得了质的飞跃。

3. **提出全新的异步Agent RL算法**:该算法旨在全面提升模型的自主决策能力。GLM-4.5曾依赖迭代自蒸馏和结果监督来训练Agent,而GLM-5则通过研发的异步算法,使模型能够从多样化的长周期交互中持续学习。这一算法在动态环境下的规划和自我纠错能力方面进行了深度优化,是GLM-5在真实编程场景中表现出色的关键底层逻辑。

4. **全面拥抱国产算力生态**:GLM-5从设计之初就原生适配了中国GPU生态。智谱AI在模型底层内核到上层推理框架都进行了深度优化,现已全面兼容华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯和燧原这七大主流国产芯片平台。据悉,GLM-5在单台国产算力节点上的表现,已能媲美由两台国际主流GPU组成的计算集群,尤其在长序列处理场景下,部署成本更是降低了50%,这对于推动国内AI算力发展具有重要意义。

GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列

 </div>
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
Rain科技Rain科技
上一篇 2026年 2月 22日 下午11:02
下一篇 2026年 2月 23日 上午1:50

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!