该公司解释说,虽然数据中心通过光纤电缆与外界相连,但在内部,他们仍在使用铜线。这些电线连接 GPU 加速器,这些加速器在等待来自其他设备的数据时会花费大量时间处于空闲状态,同时消耗能源并推高成本。
IBM 高级副总裁兼研究总监 Dario Gil 在评论这一发展时表示:
“由于生成 AI 需要更多的能源和处理能力,数据中心必须不断发展——而同封装光学器件可以使这些数据中心面向未来。有了这一突破,未来的芯片将像光纤电缆将数据传入和传出数据中心一样进行通信,开启一个更快、更可持续的通信新时代,可以处理未来的 AI 工作负载。”
IBM 在一份技术论文中概述了其新的共封装光学器件 (CPO) 原型。通过显著增加数据中心的带宽,可以最大限度地减少 GPU 停机时间,从而加速 AI 处理。
IBM 解释说,大型语言模型 (LLM) 的训练时间可以从三个月缩短到三周。同时,提高能源效率将减少能源使用量并降低与训练 LLM 相关的成本。