甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿次每秒。
它的基本节点是NVIDIA GB200 NVL72液冷机柜,每一个内置72块GPU加速卡,不同机柜之间通过129.6TB/s带宽的NVLink总线进行互联。
无论加速卡的数量,还是峰值性能,都超过了马斯克。
不过它目前还只是纸面宣布,甲骨文称NVIDIA要到明年上半年才会批量供货Blackwell GPU,而这个庞大集群何时上线还没有准确的时间。
第二套集群配备了16384块NVIDIA H100,FP8/INT8峰值性能65 PFlops(6.5亿亿次每秒),带宽吞吐总量13Pbps。
第三道集群则是65536块NVIDIA H200,FP8/INT8峰值性能260 EFlops(2.6万亿亿次每秒),带宽吞吐总量52Pbps,今年晚些时候上线。
WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。