据富国银行预测,人工智能(AI)的电力需求将在未来几年内呈现爆炸式增长。预测显示,今年 AI 用电需求已达到 8 太瓦时 (TWh),而到 2030 年,这一数字将飙升至 652 TWh,增长幅度将高达 8050%。
富国银行的分析表明,大部分电力消耗将集中在 AI 模型的训练上。到 2026 年,仅 AI 模型训练一项就将消耗约 40 TWh 的电力,到 2030 年这一数字将进一步跃升至 402 TWh。此外,AI 推理耗电量也预计在 21 世纪 20 年代末迎来快速增长期,进一步加剧 AI 行业的电力需求压力。
为了更直观地理解这一预测的规模,可以将 2030 年 AI 用电需求量与一些实际用电数据进行对比。例如,2023 年中国全年的电力消耗量为 9224.1 TWh,而上海和深圳两个城市的全年用电量分别为 184.9 TWh 和 112.8 TWh。由此可见,AI 到 2030 年的电力需求增长量将接近甚至超过多个大型城市或国家的全年用电量。

AI 行业正面临前所未有的“用电荒”挑战,这从高端 AI 芯片的高功耗中可见一斑。以英伟达的 H100 AI GPU 为例,其单机功耗已高达 700W,而下一代 B200 GPU 的功耗更是预计将达到恐怖的 1200W。AMD 和英特尔等竞争对手也不甘示弱,纷纷推出功耗更高的 AI 加速器产品。AMD 新推出的 MI300X AI 加速器峰值功耗为 750W,比上一代增加了 50%;而英特尔的新款 Gaudi 3 AI 加速器峰值功耗更是高达 900W,未来即将推出的 Falcon Shore 混合 AI 处理器更是将峰值功耗推至前所未有的 1500W。
这些数字仅代表 GPU 本身的功耗,如果加上 CPU 及其他附加组件,整体耗电量将更加惊人。以英伟达 GB200 为例,该设备集成了两个 B200 GPU 和一个 Grace CPU,其整体功耗达到了令人咋舌的 2700W。
AI 行业的发展需要考虑能源消耗和可持续发展问题,寻找更节能的 AI 算法和硬件设计至关重要。同时,也需要提升能源效率,开发更高效的能源基础设施,以应对未来 AI 行业的快速发展带来的巨大电力需求挑战。