<p>2月22日,国产AI大模型领域的春节档迎来了多款重磅产品的集中亮相。在此热潮中,智谱AI发布的GLM-5模型凭借其卓越的性能表现,迅速成为备受关注的焦点之一。</p>
智谱官方介绍,GLM-5在上一代GLM-4.X的基础上,将模型参数量翻倍至7440亿,并在编程与智能体能力方面进行了大幅度的提升。这些优化不仅体现在模型规模的显著增长,更带来了质的性能飞跃。
此前,有海外AI领域的博主对GLM-5进行了评测,数据显示其在代理编程能力方面位居世界第一,综合编程能力则位列世界第三。这一成绩仅次于Anthropic的Opus 4.6及Google的Gemini 3 Pro,但已超越了Opus 4.5,充分展现了GLM-5在复杂编程任务上的强大实力。
GLM-5的发布一经公布便引发了市场的热烈反响,用户需求的激增一度导致算力供应紧张,甚至影响了用户体验。对此,智谱AI官方发布了致歉信,并提出了相应的补偿方案,这侧面印证了GLM-5在用户心目中的高价值和模型能力的强大吸引力。

今日,智谱AI发布的GLM-5技术报告,详细阐述了其性能提升背后的四大核心技术创新:
1. **引入DSA(DeepSeek Sparse Attention)稀疏注意力机制**:该机制有效降低了模型的训练和推理成本。相较于GLM-4.5所采用的标准MoE架构,DSA机制能够根据Token的重要性动态分配注意力资源,从而在不牺牲长上下文理解和推理深度的前提下,显著削减算力开销。依托于此,GLM-5得以将模型参数量扩展到7440亿,并将训练Token规模提升至28.5万亿,实现了规模与效率的双重突破。
2. **构建全新的异步RL基础设施**:在GLM-4.5时期“训练与推理解耦”的设计基础上,智谱的新基础设施进一步实现了“生成与训练”的深度解耦,最大化地提升了GPU利用率。该系统还支持模型进行大规模智能体(Agent)轨迹探索,有效解决了以往同步瓶颈对迭代速度造成的拖累,使得强化学习(RL)后训练流程的效率获得了质的飞跃。
3. **提出全新的异步Agent RL算法**:该算法旨在全面提升模型的自主决策能力。GLM-4.5曾依赖迭代自蒸馏和结果监督来训练Agent,而GLM-5则通过研发的异步算法,使模型能够从多样化的长周期交互中持续学习。这一算法在动态环境下的规划和自我纠错能力方面进行了深度优化,是GLM-5在真实编程场景中表现出色的关键底层逻辑。
4. **全面拥抱国产算力生态**:GLM-5从设计之初就原生适配了中国GPU生态。智谱AI在模型底层内核到上层推理框架都进行了深度优化,现已全面兼容华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯和燧原这七大主流国产芯片平台。据悉,GLM-5在单台国产算力节点上的表现,已能媲美由两台国际主流GPU组成的计算集群,尤其在长序列处理场景下,部署成本更是降低了50%,这对于推动国内AI算力发展具有重要意义。
</div>
