Rain科技6月16日消息,近日,韩国高级科学技术院(KAIST)与TB级互联与封装实验室(TERA)共同发布了对未来十年HBM高带宽内存和AI GPU加速卡发展趋势的预测,其大胆的设想令人印象深刻。
目前,HBM技术领域最先进的应用是HBM3E,英伟达(NV)的B300系列以及AMD的MI350系列均已实现了高达288GB的容量。
即将到来的HBM4,预计将使NVIDIA Rubin系列达到最大384GB的容量,而AMD MI400系列则计划冲击432GB。
虽然后续标准尚未正式确定,但预计HBM5的容量将达到400-500GB,HBM6有望达到1536-1920GB(1.5-1.9TB),而HBM7甚至可能达到5120-6144GB,即大约5-6TB!
预计NVIDIA Rubin将在明年推出,芯片面积为728平方毫米,功耗800W。该系列将采用双芯整合封装,中介层面积接近2200平方毫米,搭配8颗HBM4,带宽最高可达32TB/s,整卡功耗预计为2200W。这样的设计无疑将带来性能的飞跃。
目前的AMD MI350系列风冷版本功耗为1000W,水冷版本则为1400W,NVIDIA B300系列同样达到了1400W。这些数据表明,高算力AI芯片的功耗正在快速增长。
展望未来,代号为Feynman的下一代NVIDIA AI GPU预计将于2029年问世。据估计,其核心面积约为750平方毫米,芯片功耗约为900W。这款GPU将采用四芯整合封装,中介层面积约为4800平方毫米,搭配8颗HBM5,带宽可达48TB/s,整卡功耗预计为4400W。该级别的芯片在散热和供电方面都将面临严峻挑战。
至于Feyman之后的代号,目前尚未公布,以下数据均为基于现有趋势的推测:
预计Feyman的下一代产品将于2032年推出,单芯片面积将缩小至700平方毫米,但功耗将突破1000W。通过四芯整合封装,中介层面积将超过6000平方毫米,搭配多达16颗HBM6,带宽高达256TB/s,整卡功耗将接近6000W。散热系统的复杂性和成本将显著增加。
更进一步,到2035年,又将出现新一代产品。单芯片面积将继续缩小至600平方毫米,但功耗将达到惊人的1200W。这款产品将首次采用八芯片整合封装,中介层面积将超过9000平方毫米,搭配32颗HBM7,带宽高达1TB/s,而功耗也将达到令人瞠目结舌的15000W!
这种发展趋势是否可持续?如果按照这样的功耗增长速度发展下去,每个数据中心恐怕都需要配备一座核电站来提供电力支持!这不仅仅是技术挑战,更是能源供应和环境影响的巨大考验。随着AI模型复杂度的日益提升,以及对算力需求的不断增长,芯片设计者们必须找到更高效、更绿色的解决方案。
