马斯克xAI拥有55万张英伟达GPU,利用率仅11%

Rain科技5月5日消息,坐拥约55万块英伟达GPU,实际算力利用率仅有11%,这一巨大反差让马斯克旗下 xAI 近期推向舆论风口浪尖,也引发业界对其算力利用效率的广泛质疑。

据外媒《The Information》获取的xAI内部备忘录显示,xAI公司总裁迈克尔·尼科尔斯(Michael Nicolls)向团队坦言,目前公司模型浮点运算利用率(MFU)约为11%。需要说明的是,MFU是衡量训练过程中实际计算吞吐量占硬件理论峰值比例的关键指标,它不仅反映算力是否被充分利用,更是评价数据中心整体效率的重要标尺。

这一数字背后的含义十分直观:理论上可输出100份训练算力的硬件,实际仅能产出11份,尼科尔斯在备忘录中直白评价其“低得尴尬”,并明确为团队设定了目标——未来几个月内将这一利用率拉升至50%。

据悉,xAI目前拥有约55万颗NVIDIA GPU,涵盖H100和H200系列。尽管这些GPU比最新的Blackwell产品落后了一个世代,但如此庞大的硬件部署规模,仍给市场留下了深刻印象。

需要指出的是,11%这个数字,并非指89%的GPU在完全闲置,而是衡量有效训练吞吐占硬件理论峰值算力比例的严苛指标。

与行业基准相比,xAI的表现差距尤为明显。马斯克的xAI坐拥55万张英伟达GPU加速卡 利用率仅11% 当前,生产级大模型训练的MFU通常维持在35%至45%之间,其中Meta和谷歌凭借长期积累的深厚软件堆栈,其GPU利用率分别可达约43%和46%;

即便在以“低效”著称的GPT-3训练时期,MFU也能稳定在21%-26%之间。反观xAI的11%,不仅远低于当前行业主流水平,甚至不及AI算力发展史上的“古早”尴尬时期。

这种巨大的效率差距,根源在于xAI对英伟达官方工具链的过度依赖。据行业专家分析,顶尖AI公司通常会投入大量资源自研分布式训练框架,例如Meta的PyTorch深度优化、谷歌的JAX与TPU配套软件,而xAI仍在使用英伟达现成方案,缺乏针对自身模型架构的深度调优。此外,快速扩张的GPU集群带来复杂的网络拓扑问题,而xAI尚未建立起完善的故障恢复和负载均衡机制,进一步加剧了算力浪费。

值得一提的是,坐拥顶级算力却难以发挥价值, xAI 症结不在硬件,而在软件短板。

据悉,xAI一直照搬英伟达标准部署方案,但软件堆栈、并行策略和模型工程优化,远远跟不上硬件激进扩张速度。

具体来看,HBM显存读取速度远慢于计算芯片,导致芯片大量时间空转等待数据;网络拓扑中的任何一处瓶颈,在数万张卡的同步要求下,都会被急剧放大。

此外,Lambda等机构分析指出,显存压力、过度的激活重计算和张量并行带来的跨GPU通信开销等,都是拖累MFU的系统性因素。

值得注意的是,xAI 基建扩张堪称行业奇迹,其Colossus 超算仅 122天建成,GPU规模短时间内极速扩容,过快的硬件铺摊,也放大了软件优化滞后的致命短板。若要实现50%的MFU目标,xAI需要在数据加载管线、显存分配以及并行策略(如序列并行与专家并行)等方面进行系统性重构,这通常需要数月甚至更长时间的工程投入。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
Rain科技Rain科技
上一篇 1天前
下一篇 1天前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!