AI GPU加速卡功耗失控!10年内超过15000W

Rain科技6月16日消息,近日,韩国高级科学技术院(KAIST)与TB级互联与封装实验室(TERA)共同发布了对未来十年HBM高带宽内存和AI GPU加速卡发展趋势的预测,其大胆的设想令人印象深刻。

目前,HBM技术领域最先进的应用是HBM3E,英伟达(NV)的B300系列以及AMD的MI350系列均已实现了高达288GB的容量。

即将到来的HBM4,预计将使NVIDIA Rubin系列达到最大384GB的容量,而AMD MI400系列则计划冲击432GB。

AI GPU加速卡功耗失控!10年内超过15000W

虽然后续标准尚未正式确定,但预计HBM5的容量将达到400-500GB,HBM6有望达到1536-1920GB(1.5-1.9TB),而HBM7甚至可能达到5120-6144GB,即大约5-6TB!

预计NVIDIA Rubin将在明年推出,芯片面积为728平方毫米,功耗800W。该系列将采用双芯整合封装,中介层面积接近2200平方毫米,搭配8颗HBM4,带宽最高可达32TB/s,整卡功耗预计为2200W。这样的设计无疑将带来性能的飞跃。

目前的AMD MI350系列风冷版本功耗为1000W,水冷版本则为1400W,NVIDIA B300系列同样达到了1400W。这些数据表明,高算力AI芯片的功耗正在快速增长。

展望未来,代号为Feynman的下一代NVIDIA AI GPU预计将于2029年问世。据估计,其核心面积约为750平方毫米,芯片功耗约为900W。这款GPU将采用四芯整合封装,中介层面积约为4800平方毫米,搭配8颗HBM5,带宽可达48TB/s,整卡功耗预计为4400W。该级别的芯片在散热和供电方面都将面临严峻挑战。

AI GPU加速卡功耗失控!10年内超过15000W

AI GPU加速卡功耗失控!10年内超过15000W

至于Feyman之后的代号,目前尚未公布,以下数据均为基于现有趋势的推测:

预计Feyman的下一代产品将于2032年推出,单芯片面积将缩小至700平方毫米,但功耗将突破1000W。通过四芯整合封装,中介层面积将超过6000平方毫米,搭配多达16颗HBM6,带宽高达256TB/s,整卡功耗将接近6000W。散热系统的复杂性和成本将显著增加。

更进一步,到2035年,又将出现新一代产品。单芯片面积将继续缩小至600平方毫米,但功耗将达到惊人的1200W。这款产品将首次采用八芯片整合封装,中介层面积将超过9000平方毫米,搭配32颗HBM7,带宽高达1TB/s,而功耗也将达到令人瞠目结舌的15000W!

这种发展趋势是否可持续?如果按照这样的功耗增长速度发展下去,每个数据中心恐怕都需要配备一座核电站来提供电力支持!这不仅仅是技术挑战,更是能源供应和环境影响的巨大考验。随着AI模型复杂度的日益提升,以及对算力需求的不断增长,芯片设计者们必须找到更高效、更绿色的解决方案。

AI GPU加速卡功耗失控!10年内超过15000W

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
上一篇 2025年 6月 16日 上午3:27
下一篇 2025年 6月 16日 上午8:20

相关推荐

欢迎来到AI快讯网,开启AI资讯新时代!