近年来,生成式AI的爆发式增长,对算力的需求呈现出指数级攀升。芯片巨头英伟达(NVIDIA)凭借其GPU的先发优势和庞大的生态系统,几乎垄断了AI训练和推理的硬件市场。然而,一股新的力量正在悄然崛起,试图打破这一格局。根据最新披露的信息,谷歌(Google)正从一家AI加速芯片(TPU)的内部使用者,摇身一变成为市场的积极销售者,直接挑战着英伟达的统治地位。
据专业分析机构SemiAnalysis的深度研究显示,谷歌的最新一代张量处理单元(TPUv7),代号“Tie Mu”(铁木),已经展现出了强大的市场竞争力。其存在已经初步影响了AI算力市场的价格,促使整体市场价格出现了一定程度的下调。这标志着谷歌在AI硬件领域的战略重心发生了重大转移:以往TPU几乎仅服务于谷歌自家庞大的AI模型训练需求,但现在,它们正被正式推向第三方客户。
这一转变的首批重要客户之一便是备受瞩目的Anthropic公司。据悉,Anthropic已经与谷歌达成一项规模庞大的协议,计划采购约一百万颗TPU。这笔交易不仅包括了直接的硬件购买,还涉及通过谷歌云(Google Cloud)平台提供的租赁服务,一举显现出谷歌在算力供应上的决心和能力。

图像来源说明:此图片由AI生成,图片授权服务商为Midjourney
这种市场竞争的加剧,已经开始体现在交易 terms 的变化上。SemiAnalysis的报告指出,OpenAI就曾借由“转向TPU或其他替代方案”的策略,成功从英伟达那里争取到了高达30%的硬件采购折扣。有业内人士戏谑道:“你买的TPU越多,在英伟达GPU上的开销就能省越多。”这充分说明了TPU在谈判桌上所扮演的“价格杀手”角色。
从技术角度来看,谷歌的TPU并非“纸上谈兵”。它们已经证明了自身能够支撑起顶级AI模型的训练任务。当下最令人兴奋的几个AI模型,例如谷歌自家的Gemini 3 Pro以及Anthropic的Claude 4.5 Opus,其核心训练都深度依赖了谷歌的TPU以及亚马逊的Trainium芯片。特别值得关注的是,TPUv7在理论计算能力和内存带宽方面,已经能够与英伟达最新的Blackwell系列芯片相媲美,而其最大的吸引力在于成本优势。
根据SemiAnalysis的建模分析,与英伟达的GB200系统相比,每颗TPU芯片的总拥有成本(TCO)预计将有约44%的优势。即使是像Anthropic这样的外部大客户,也能享受到30%至50%的成本降低。此外,谷歌的TPU系统能够将多达9,216颗芯片紧密连接成一个高密度网络,这相比于传统英伟达的系统,在处理大规模分布式AI训练任务时,展现出更高的便利性和效率。
为了进一步降低开发者迁移使用TPU的门槛,谷歌正积极投入资源。一方面,他们正在为目前最主流的AI开发框架PyTorch开发原生支持,确保开发者能够平滑地从现有环境中迁移。另一方面,谷歌也在积极整合vLLM等推理库,目标是尽可能减少开发者在使用TPU时可能遇到的软件兼容性障碍,让TPU成为一个“开箱即用”的选项。
然而,面对谷歌的这一轮挑战,老牌巨头英伟达显然也不会坐以待毙。据了解,英伟达正在积极准备其技术反击,下一代芯片“Vera Rubin”预计将在2026或2027年推出。与此同时,谷歌自身的TPUv8计划似乎遭遇了一些延期,但他们依然计划与博通(Broadcom)和联发科(MediaTek)等合作伙伴一同推出新一代产品,以期在竞争激烈的市场中保持优势。
核心要点速览:
💡 谷歌已从AI芯片的纯粹使用者转变为市场参与者,TPUv7的亮相直指英伟达的市场主导地位。
📉 OpenAI通过将算力转向TPU,成功迫使英伟达提供了30%的硬件折扣,显示了TPU的成本竞争力。
⚙️ 谷歌正全面推进TPU的软硬件生态建设,致力于扫除开发者迁移障碍,加速其市场推广。