Rain科技9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务。其中,最顶级的集群配备了超过10万块的NVIDIA Blackwell GPU,堪称史上最强AI算力集群之一。
此次发布的顶级集群使用了多达131072块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿次每秒。这一恐怖的算力,使其在目前的AI算力领域遥遥领先。
该集群的基本节点为NVIDIA GB200 NVL72液冷机柜,每个机柜内置72块GPU加速卡,不同机柜之间通过129.6TB/s带宽的NVLink总线进行互联。这意味着该集群拥有极高的数据传输速度,可以高效地处理庞大的数据。
值得注意的是,目前该集群还只是纸面宣布,甲骨文表示NVIDIA要到明年上半年才会批量供货Blackwell GPU,而这个庞大集群何时上线还没有准确的时间。不过,甲骨文此次的发布无疑再次印证了其在云计算领域的野心,也预示着AI算力领域即将迎来新一轮的激烈竞争。
除了顶级集群以外,甲骨文还发布了两款其他集群:其中一个配备了16384块NVIDIA H100,FP8/INT8峰值性能65 PFlops(6.5亿亿次每秒),带宽吞吐总量13Pbps;另一个则配备了65536块NVIDIA H200,FP8/INT8峰值性能260 EFlops(2.6万亿亿次每秒),带宽吞吐总量52Pbps,预计于今年晚些时候上线。
当前,WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。随着AI技术的不断发展,对于高性能算力的需求也将不断增加。甲骨文此次发布的GPU计算集群,将为AI研究、开发和应用提供强有力的支持,推动 AI 领域的进步。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
