IBM 研究院刚刚分享了旗下最新研制的“人工智能加速处理器”的一些新细节,可知该 AIU 芯片拥有 230 亿个晶体管,旨在满足基于 PCIe 插槽的企业 AI 解决方案的部署需求。据悉,采用半高(Low Profile)设计的 IBM AIU 扩展卡,搬来了 IBM Z16 大型机上 Telum 芯片中的 AI 处理器。
(来自:IBM Research)
基于 5nm 工艺(推测为台积电代工)的 IBM AIU 芯片,使用了 Telum 的 AI 引擎。最多可扩展至 32 核心,以实现更高的效率。
该公司还强调了企业客户使用 AI 的两条主要技术路线:
其一是采用了较低精度、并使用近似计算,从 32-bit 格式降级来的一些奇数位结构。这些结构具有 1/4 的精度,辅以相仿的结果。
其二是 IBM 更为看重的专用型 AI 芯片,特点是能够简化 AI 工作流程。由于大多数 AI 计算涉及矩阵与矢量乘法,因而该公司的芯片架构,也具有较多用途 CPU 更简洁的布局。
此外 IBM AIU 可将数据直接从一个计算引擎发送到下一个,从而节省大量能耗。
与此同时,IBM 希望在竞争激烈的 AI 加速芯片市场中,帮助企业解决较当前人工智能目标更复杂的问题,从而更加凸显自家产品的特色。
IBM 研究院指出:
通过部署 AI 来分来照片中的猫狗,是一项相对有趣的学术活动,但它无法化解我们当前面临的紧迫问题。
毕竟想要让 AI 洞察现实世界的复杂性 —— 比如预测破坏性与伊恩相当的下一场飓风、或我们是否正在步入衰退 —— 仍得用上企业级质量、以及工业化规模的硬件。
好消息是,IBM AIU 让我们距离实现下一阶段的目标又近了一步,且研究人员希望尽快分享与之相关的更多细节。