近日,国内人工智能公司智谱宣布开源其备受瞩目的32B/9B系列GLM(General Language Model)模型,这一举动在业界引起广泛关注。此次开源包括基座模型、推理模型和沉思模型,它们均基于宽松的MIT许可协议发布,允许商业使用和自由分发,无疑将极大地促进国内大模型生态的繁荣。
智谱此次开源并非简单的代码共享,而是同步推出了一个名为Z.ai的全新平台,作为用户体验最新模型的入口。该平台集成了32B基座、推理、沉思三类GLM模型,用户可在此免费体验这些模型的强大功能。此外,这些模型也已部署在智谱的MaaS(Model as a Service)平台上,为企业和开发者提供便捷的API服务,降低了使用门槛。

在性能表现方面,智谱着重强调了推理模型GLM-Z1-32B-0414的卓越性能。官方数据显示,该模型的性能可以与DeepSeek-R1等知名模型相媲美。更为重要的是,经过实测,GLM-Z1-32B-0414在MaaS平台上能够达到高达200 Tokens/秒的推理速度,而其价格仅为DeepSeek-R1的1/30。如此高的性价比,对于追求效率和成本控制的企业和开发者而言,无疑具有巨大的吸引力。这一显著的成本优势或将成为其抢占市场份额的关键。
基座模型GLM-4-32B-0414同样值得关注。该模型拥有320亿参数,并经过了15T高质量数据的预训练,以及针对推理能力的合成数据的加强训练。官方宣称,其性能可与国内外参数量更大的主流模型相匹敌。GLM-4-32B-0414在工程代码生成、函数调用、搜索问答及报告撰写等任务上均表现出色,部分Benchmark指标已经接近,甚至超越了GPT-4o和DeepSeek-V3-0324等更大模型的水平。考虑到模型规模的差异,这一成绩实属不易,也显示了智谱在模型训练和优化方面的实力。

进一步剖析,GLM-Z1-32B-0414作为一款深度思考能力的推理模型,是在GLM-4-32B-0414的基础上,采用了冷启动与扩展强化学习策略,并针对数学、代码、逻辑等关键任务进行了深度优化训练。这种针对性的优化,使得该模型在数理能力和复杂问题解决能力上得到了显著提升。在AIME 24/25、LiveCodeBench、GPQA等基准测试中,GLM-Z1-32B-0414展现了强大的数理推理能力,能够支持解决更广泛的复杂任务,这无疑是其核心竞争力之一。

除了大型模型之外,智谱还推出了一个9B的小尺寸模型GLM-Z1-9B-0414。尽管参数量较少,但该模型在数学推理及通用任务上依然表现出色,整体性能已跻身同尺寸开源模型的领先水平。特别是在资源受限的边缘计算等场景下,GLM-Z1-9B-0414能够很好地在效率与效果之间取得平衡,为需要轻量化部署的用户提供了理想选择。这显示了智谱在不同规模模型上的技术积累和战略布局。
值得一提的是,智谱还推出了颇具前瞻性的沉思模型GLM-Z1-Rumination-32B-0414。该模型代表了智谱对AGI(通用人工智能)未来形态的探索。与一般推理模型不同,沉思模型通过更多步骤的深度思考来解决高度开放与复杂的问题。它能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练。这种设计思路,使得GLM-Z1-Rumination-32B-0414在研究型写作和复杂检索任务上的能力得到了显著提升,也预示着未来AI的发展方向。

在Z.ai平台上,用户可以亲身体验GLM-4-32B基座模型、GLM-Z1-32B推理模型和GLM-Z1-Rumination-32B沉思模型。GLM-4-32B具备强大的代码生成能力,并支持全新的Artifacts功能,为用户打造交互式开发体验;GLM-Z1-32B则拥有超强推理性能,在线体验最高可达200 Tokens/秒的极速输出;而GLM-Z1-Rumination-32B则适合进行深度调研,体验Deep Research的强大能力。通过Z.ai平台,智谱不仅展示了自身的技术实力,也为用户提供了一个便捷的接入和使用大模型的平台,无疑将加速大模型技术的普及和应用。