博通Thor Ultra芯片:3nm工艺,OpenAI定制集群核心

近年来,人工智能的飞速发展,特别是大型语言模型(LLM)的崛起,正以前所未有的速度重塑着我们的世界。从智能助手到内容创作,AI的触角已深入到各个行业。然而,支撑这些强大AI模型运转的,是海量涌动的数据和对算力近乎贪婪的需求。如何让庞大的计算集群高效互联,成为摆在所有AI巨头面前的严峻挑战。近日,在这一领域,我们看到了来自半导体巨头博通的有力回应。

博通公司近日正式发布了一款代号为“Thor Ultra”(雷神Ultra)的AI网络芯片。这款芯片被定位为专为超大规模数据中心量身打造的底层网络解决方案,其核心使命在于为ChatGPT这类飞速膨胀的大型人工智能应用提供强大的互联支持,直击海量数据处理过程中最棘手的“高速互联”难题。

从技术细节来看,“Thor Ultra”芯片基于台积电最前沿的3纳米制程工艺打造,这意味着其在晶体管密度和能效比上达到了行业领先水平。其设计亮点在于其无与伦比的超强扩展能力,理论上能够支持数十万颗处理器无缝互联,共同构成一个体量惊人的巨型计算集群。这一能力恰好契合了当前AI领域追求极致算力聚合的趋势。据透露,这款即将惊艳业界的芯片,已被OpenAI锁定为他们规划中的10吉瓦级定制AI加速器集群的核心组件。这不仅是博通在AI专用集成电路(ASIC)及高速网络领域战略布局的关键一步zui,更是其在AI基础设施赛道上一次重要的战略落子。

此次博通与OpenAI的深度合作,堪称是一场“天作之合”。OpenAI,作为大模型研发领域的佼佼者,其在算法创新和模型架构设计上拥有深厚的积累。他们能够直接将复杂的算法需求转化为精确的硬件规格,定义出最适合自身AI模型运行的网络架构。而博通则凭借其在全球芯片工程化和大型数据中心网络部署方面的丰富经验和技术实力,负责将这些宏大的设想转化为现实。从机架级别的扩展性设计,到高度优化的互联方案,再到整体网络系统的成功落地,博通将是实现这一庞大AI基础设施的关键推手。根据项目规划,这套宏伟的AI计算集群将于2026年下半年陆续启动部署,并预计在2029年底前完成全部交付。这意味着,未来几年,这将是一个庞大而复杂的工程。

市场普遍分析认为,随着AI模型的参数规模不断向万亿级迈进,数据中心对底层网络性能的需求已呈现出指数级的增长态势。传统的网络架构往往难以跟上AI算力爆炸式发展的步伐,成为制约AI能力进一步释放的瓶颈。“Thor Ultra”的横空出世,不仅有望有效解决超大规模AI集群中的通信瓶颈问题,更重要的是,它开启了一种全新的AI基础设施构建模式——软件算法与硬件设计深度协同优化的新范式。这种模式能够最大化地发挥AI模型的潜力,为构建下一代更强大、更高效的AI基础设施树立了新的标杆。

欲深入了解人工智能前沿动态,探索更多垂直领域AI的深度分析,敬请持续关注专业资讯平台:

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2025年 10月 15日 下午7:03
下一篇 2025年 10月 15日 下午8:11

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!