在人工智能加速芯片市场的白热化竞争中,AMD 携其全新的 Instinct MI350 系列加速器正式登场。该系列包括 MI350X 和 MI355X 两款型号,直指 NVIDIA 最新 Blackwell 架构,试图在性能、系统扩展性和成本控制等多个维度上发起挑战甚至实现超越。此举标志着 AMD 在 AI 算力领域的战略性跃进,力图打破 NVIDIA 在该领域的垄断地位。
相较于之前的 MI300 系列,MI350 系列不仅在架构上进行了大幅升级,更清晰地锁定了 AI 训练和推理市场。从某种程度上说,MI350 的发布,预示着 AMD 已经完成了从“追赶者”到“有力竞争者”的角色转变。MI300 系列的成功试水高性能计算和 AI 市场,无疑为 MI350 系列的登场奠定了坚实的基础,使其具备了正面挑战 NVIDIA 的信心和实力。
MI350 系列包含风冷版 MI350X 和液冷高性能版 MI355X。两者均采用先进的 3nm 工艺,并配备高达 288GB HBM3E 高带宽内存。值得注意的是,旗舰型号 MI355X 的功耗高达 1400W,并配备液冷散热系统,显然是为高密度计算环境量身定制。这一设计思路体现了 AMD 对未来数据中心发展趋势的深刻理解,即算力密度不断提升,散热需求日益增长。
在性能方面,AMD 展示了 MI355X 在主流大模型推理任务中的显著提升,相较于 MI300X,性能提升超过三倍。这一跨越式的性能增长,源于 AMD 在架构层面的深度优化,例如改进的芯粒互联方式、优化的缓存架构以及针对张量计算的强化。尤其是在FP4和FP6浮点计算性能上的大幅提升,成为了 MI350 系列的核心技术亮点,反映了 AI 芯片正朝着更注重能效平衡的方向发展。
尽管 AMD 尚未完全掌握市场话语权,但在与 NVIDIA Blackwell 平台的对比中,MI355X 凭借相似的计算性能、更大的显存配置和较低的成本预期,在特定客户需求下展现出一定的竞争力。AMD 在此次发布中,着重强调了整体系统架构的优化和机架规模的部署能力,而非单一加速卡的峰值性能,这是一种更为务实且更具战略性的考量。
MI350 系列在规格设计上兼容 UBB 8 GPU 模块,这意味着它可以无缝集成到现有的高性能 AI 计算平台中,甚至包括 NVIDIA HGX 类系统。 这种平台级的兼容性,降低了 MI350 系列进入更多数据中心和云厂商体系的门槛,也增加了客户选择 AMD 产品的意愿。
AMD 在推广 MI350 系列时,将重点放在综合系统效能、机架级资源配置和开放标准支持上。例如,通过超级以太网联盟(UEC)和 UALink 等互联协议,支持 64 至 128 颗 GPU 的横向扩展,在单个机架中构建高达 36TB 的共享显存资源池。 这种开放性策略与 NVIDIA 相对封闭的生态系统形成了鲜明对比。
总而言之,MI350 系列的发布是 AMD 面向 AI 产业趋势调整战略重心的重要体现。从架构设计到市场策略,AMD 正逐步淡化过去以高性能计算为主的产品定位,将更多资源投入到 AI 加速领域,特别是大模型的训练和推理。通过支持开放式互联标准、构建可替换模块、兼容主流平台等方式,AMD 旨在增强产品的可适配性和可持续性。
AMD 通过精确的市场定位和资源匹配,力求在性能、成本和生态系统之间找到平衡。尽管在软件生态(CUDA、TensorRT)方面,NVIDIA 仍占据领先地位,AMD 在 AI 框架优化、模型支持和开发工具链等“软实力”层面仍需迎头赶上。然而,MI350 系列在硬件规格和系统能力上已经展现出了与 NVIDIA 对等甚至超越的能力,为 AMD 在未来 AI 加速芯片市场的竞争中赢得了宝贵的筹码。