尽管英伟达的市值已然突破了 4 万亿美元,但市场似乎仍未完全认识到其真实潜力,我们可能在很大程度上低估了这家公司。
在许多人的固有印象中,英伟达依然被视为一家专注于“核弹”级 GPU 芯片的制造商。然而,除了满足人工智能领域对高性能芯片的迫切需求,英伟达早已怀揣着构建云平台的宏大愿景。
2023 年,英伟达推出了备受瞩目的 DGX Cloud 服务。该服务以每台实例配备八块 H100 GPU,月租金高达 36999 美元的价格切入市场,这一极具竞争力的定价策略,无疑向亚马逊 AWS、微软 Azure 等传统云服务巨头释放了挑战的信号。
然而,进入 2025 年中期,这家被誉为英伟达“亲儿子”的云服务平台却悄然调整了其核心定位。英伟达不再将数十亿美元的云支出承诺优先对准 DGX Cloud,其角色逐渐转向支持内部基础设施和研发用途,而非作为面向企业市场的主打产品。
取而代之的是,英伟达于 2025 年上线了名为 Lepton 的新型市场化产品。Lepton 被定位为一个 GPU 租赁与调度的平台,本质上是一个算力需求的“入口”或“集散地”。
那么,DGX Cloud 之所以选择淡出,Lepton 又能否真正承接英伟达在人工智能时代成为云计算领域主导者的野心?
01、以退为进的战略调整
许多人或许还记得 2023 年 GPU 紧缺的局面,即便是财力雄厚的企业也难以获得 H100 芯片。为应对此种情况,英伟达顺势推出了 DGX Cloud,将自身拥有的高端算力集群以按月租赁的形式提供给客户,实现了“开通即用”的便捷模式。
DGX Cloud 在推出的第一年确实引起了市场的高度关注。根据英伟达 2024 年底的财报显示,包括 DGX Cloud 在内的软件与服务收入已经达到了 20 亿美元的年化水平。
然而,转折点发生在 2024 年下半年。随着 GPU 供应的逐步缓解,亚马逊、微软、谷歌等大型云提供商纷纷采取降价策略,这使得 DGX Cloud 的价格优势变得不再突出。
例如,亚马逊的 AWS 对 H100 和 A100 实例的租赁价格下调了高达 45%,其降价幅度远超 DGX Cloud 的定价。
对于客户而言,DGX Cloud 此前因供应紧张而带来的溢价优势迅速丧失了其存在的基础。

英伟达于 2023 年 3 月 GTC 大会上发布 DGX Cloud,图片来源:GTC 2023
更深层次的问题在于“渠道冲突”。
亚马逊、微软和谷歌是英伟达最主要的芯片客户,它们为英伟达的营收增长提供了强有力的支撑。DGX Cloud 的直接面向客户模式,意味着英伟达在某种程度上与这些重要合作伙伴展开了直接的业务竞争。每签订一份 DGX Cloud 的合同,都有可能侵蚀 AWS、Azure 或 GCP 的市场份额和收入。
客户的担忧是可以预见的,而更长远的潜在后果,是促使这些合作伙伴加大在自研芯片方面的投入,例如 AWS 的 Trainium 和谷歌的 TPU,从而降低对英伟达的结构性依赖。
此外,在短期内建立稳固的客户忠诚度也面临挑战。一些企业可能将 DGX Cloud 视为一种临时的解决方案,在 GPU 供应紧张、项目启动紧急的阶段租赁数月,待情况缓解后,再迁移回与 AWS、Azure 或谷歌云的长期合作关系中。

英伟达创始人兼 CEO 黄仁勋与谷歌云高管同台交流,图片来源:英伟达
考虑到以上因素,在最新的财年中,英伟达的财务报告已不再将巨额的云支出承诺明确归类于 DGX Cloud。尽管 DGX Cloud 依然出现在收入分类中,但其角色已明显转向公司内部的基础设施支持。
换而言之,DGX Cloud 的服务本身依然存在,但它正在逐渐从面向外部企业市场的主打产品,转变为英伟达内部的资源,不再与微软、亚马逊、谷歌等巨头展开正面竞争。
除了选择将 DGX Cloud“转向内部使用”,英伟达还将外部战略焦点引向了一个全新的平台化入口:Lepton。
英伟达于 2025 年 5 月推出了 Lepton 平台,该平台同样隶属于 DGX Cloud 的体系之下。但与 DGX Cloud 直接将“英伟达自有的 AI 芯片租给客户”的模式不同,Lepton 完全不涉及 GPU 库存的管理。它的核心功能在于“将算力需求引导至最合适的云服务商”,合作伙伴包括 AWS、Azure,以及英伟达积极扶持的各类云服务提供商。
正如英伟达创始人兼 CEO 黄仁勋在发布 Lepton 时所言:“Lepton 将连接我们全球的 GPU 云提供商网络与 AI 开发者。”其目标是“打造一个全球规模的 AI 工厂。”
简而言之,为了避免与重要渠道合作伙伴产生直接竞争,英伟达的战略重心已不再是建立一个独立的“英伟达云”,而是转向一个更加开放和协作的平台模式。
02、构建英伟达的“朋友圈”
尽管 DGX Cloud 的角色有所淡化,但这并不意味着英伟达放弃了在云计算领域的布局。在过去的两年里,英伟达一直积极扶持和培育自己的云服务商“盟友”。甚至出现了一种令人玩味的现象——英伟达在向这些云合作伙伴销售 GPU 的同时,又从这些合作伙伴那里租赁算力。
以 CoreWeave 为例,英伟达不仅在 2023 年向其投资了 1 亿美元,还为其提供了 H100 GPU 的优先供应权。
在 GPU 供应紧张的时期,这使得 CoreWeave 成为少数能够大规模提供英伟达 GPU 的云服务商之一。而英伟达自身则选择从 CoreWeave 租赁这些 GPU 算力。

CoreWeave 借助 AI 东风成功上市 ,图片来源:网络
Lambda 公司也采用了类似的合作模式。Lambda 是一家规模相对较小的 GPU 云服务提供商。
2025 年 9 月,英伟达与 Lambda 签署了一份总价值 15 亿美元的租赁协议,合同期为四年。该协议包括租赁回 1 万台搭载英伟达顶级 GPU 的服务器,总价值约 13 亿美元。此项交易使英伟达成为 Lambda 的最大客户,而英伟达自身的研发团队将利用这些 GPU 进行模型训练。

Lambda 也是英伟达生态系统中的重要一员,图片来源:网络
具体而言,英伟达通过向合作伙伴销售芯片,能够立即获得现金流,这有助于美化其财务报表并满足股东期望;同时,合作伙伴则可以通过出租 GPU 获得稳定的现金流,从而扩大其业务规模;随后,英伟达再以租赁的方式锁定所需的算力,确保在关键时刻不会出现供应短缺。此外,这种模式与许多公司选择租用云服务而非自建数据中心的原因一致,即能够更灵活地应对研发任务量的波动。
这一策略的精妙之处在于,一旦芯片售出,收入便立刻被计入英伟达的账面,而支出则被延后,租金将在几年内逐步摊销,转化为公司的运营成本。与此同时,英伟达无需自建数据中心,最大限度地降低了资产压力。
对于合作伙伴而言,英伟达成为了其最大的客户,算力和现金流得到了保障,这极大地增强了生态系统的粘性。更巧妙的是,这种操作还能够在一定程度上稳定市场情绪。即使是英伟达自身也选择以特定的价格回租算力,这相当于对 AI 算力市场行情进行了背书,锚定了价格预期,从而实现了“一石三鸟”的多重效益。
这套成功的模式被复制到了各种英伟达生态系统内的云计算初创公司中:通过“销售芯片 — 投资客户 — 租赁服务 — 再次销售芯片”的循环,最终形成了一个高度自洽的 AI 芯片生态资金链。
与此同时,英伟达通过其旗下的风险投资部门 Nventures,在更广泛的 AI 生态系统中进行战略投资。它投资了众多初创公司,涵盖从模型开发到应用层的各个环节。尽管这些被投资的公司并非都专注于云服务,但其背后的逻辑是共通的:通过投资绑定潜在客户和未来的生态伙伴,只要这些初创公司取得成功并不断发展壮大,它们对算力的需求最终都将转化为对英伟达芯片的采购。
可以说,英伟达的业务模式已远不止于销售芯片,它更像是在运营一个庞大的 AI 创业孵化器,旨在构建一个“英伟达系”的云生态。
03、AI 算力的“App Store”
Lepton 的模式在某种程度上与英伟达“一手卖出,一手租回”的策略有着相似之处,即为算力市场提供“做市”服务。
与 DGX Cloud 直接面向终端客户不同,Lepton 并不亲自运营云服务,而是扮演“流量调度者”的角色,将客户的任务分发给其生态合作伙伴的数据中心。
Lepton 的本质是一个算力交易市场。用户只需在 Lepton 平台上提交算力需求,系统便会自动匹配到可用的 H100 或 Blackwell GPU,无论这些硬件资源位于 CoreWeave、Lambda,还是 AWS、Azure 的数据中心。
更重要的是,Lepton 将所有 GPU 云资源整合到英伟达统一的软件栈之下,例如 NIM 微服务和 NeMo 框架。开发者无需关心底层的服务提供商是谁,只需要通过 Lepton 平台即可获得一致的开发体验和运行环境。
Lepton 巧妙地化解了英伟达与主要云服务巨头之间的潜在冲突。在这种模式下,英伟达不再是 AWS、Azure 的直接竞争对手,而是扮演一个中立的调度平台角色。AWS 和微软之所以选择加入 Lepton,原因显而易见:通过该市场,它们能够触达更多未被满足的算力需求。
对于英伟达而言,与强大的合作伙伴直接对抗的风险过于巨大,远不如退居幕后,转而成为算力市场的调度者和事实控制者。这是一种典型的“退一步,海阔天空”的策略——它避免了冒犯合作伙伴,同时又能继续掌控生态系统的入口。无论客户最终选择哪家云服务商,只要涉及到 AI 算力的使用,都离不开英伟达的 GPU 和软件栈。
因此,放弃构建自有云服务平台并不意味着英伟达的战略软弱。Lepton 对英伟达而言,是一种实现“鱼与熊掌兼得”的明智之举。
当然,Lepton 的推广也并非一帆风顺。部分中小型云厂商担心英伟达会借此平台介入客户关系或影响定价策略。Lepton 的模式并不能在一夜之间彻底改变行业格局。然而,随着 AWS 和 Azure 等巨头平台的加入,Lepton 的影响力已不容忽视。未来,AI 算力的跨云调度很可能通过某个统一的平台来实现。
对广大开发者而言,“在哪里进行计算”已变得次要;更关键的因素在于“能否计算”、“何时能够计算”以及“成本如何”,而这些正是 Lepton 试图通过统一体验层来解决的核心痛点。
英伟达不再需要费力自建一个孤立的“英伟达云”,也不必在底层 IaaS 层面与合作伙伴正面竞争。它的目标是吸引所有参与者进入其生态体系,让所有云服务都使用英伟达的 GPU,调用英伟达的开发框架,并通过英伟达的入口完成算力的采购与调度。
如果这一战略得以顺利实施,Lepton 表面上只是一个 GPU 聚合市场,但实际上它有可能成为算力世界的“控制面板”。谁能接到订单,谁能维持运营,这些分配权都将掌握在英伟达手中。从更长远的角度看,企业能够持续获得的数据和洞察也将是巨大的收益。在跨云调度的过程中,Lepton 天然能够捕捉到哪些任务类型最活跃、哪些区域的算力需求最紧张、哪些代际的 GPU 使用率更高,以及价格弹性如何,这些信息反过来将极大地辅助英伟达的商业决策。
正如苹果公司通过 App Store 掌控了移动互联网的入口一样,英伟达正试图通过 Lepton 在算力领域复制同样的成功,只是它所面对的对象从应用程序转换为了算力资源。
这也解释了英伟达当前的这一市场逻辑。简而言之,它并非必须拥有云基础设施本身,而是需要掌控算力栈和用户需求入口。只要全球 AI 的训练与推理过程仍以其 GPU 为核心,无论算力最终托管在亚马逊 AWS、微软 Azure、谷歌 GCP,还是 CoreWeave、Lambda 等合作伙伴处,无论客户选择谁作为服务提供商,只要英伟达能够掌控价值链的核心环节,它就能够持续获取相应的价值。
从最初的 AI 芯片制造商,到 DGX Cloud 的尝试,再到如今的 Lepton 平台,英伟达的战略早已从单纯的硬件销售,成功过渡到“算力”和“平台”的运营阶段。任何一家市值突破 4 万亿美元,其产品已经成为 AI 时代核心生产资料的公司,都不可能仅仅满足于现状,它必然怀揣着更加长远和宏大的野心,不是吗?


