IBM Research 最近发表了一篇论文,揭示了一种模拟芯片的开发情况,该芯片有望在人工智能推理任务中实现 GPU 级别的性能,同时大幅提高能效。目前,GPU 被广泛用于人工智能处理,但其高能耗不必要地增加了成本。
新的模拟人工智能芯片仍在开发中,它能够在同一位置同时计算和存储内存。这种设计模拟了人脑的运作,从而提高了能效。该技术不同于当前的解决方案,当前的解决方案需要在内存和处理单元之间不断移动数据,从而降低了计算能力,增加了功耗。
在该公司的内部测试中,在评估模拟内存计算的计算精度时,新芯片在 CIFAR-10 图像数据集上显示出 92.81% 的准确率。IBM 声称,这一精确度水平可与采用类似技术的任何现有芯片相媲美。更令人印象深刻的是它在测试过程中的能效,每次输入仅消耗 1.51 微焦耳的能量。
上周发表在《自然-电子学》(Nature Electronics)上的这篇研究论文还提供了有关该芯片构造的更多信息。该芯片采用 14 纳米互补金属氧化物半导体(CMOS)技术制造,拥有 64 个模拟内存计算内核(或瓦片)。每个内核都集成了一个 256 x 256 的突触单元交叉阵列,能够执行与一层深度神经网络(DNN)模型相对应的计算。此外,该芯片还配备了一个全局数字处理单元,能够执行对某些类型的神经网络至关重要的更复杂运算。
IBM 的新芯片是一项引人关注的进步,尤其是考虑到近来人工智能处理系统的功耗呈指数级增长。有报告显示,人工智能推理机架的耗电量通常是普通服务器机架的 10 倍,这导致了高昂的人工智能处理成本和环境问题。在这种情况下,任何能提高处理效率的改进都会受到业界的热烈欢迎。
作为额外的好处,专用的高能效 AI 芯片有可能减少对 GPU 的需求,从而降低游戏玩家的价格。不过,值得注意的是,这目前只是推测,因为 IBM 芯片仍处于开发阶段。其过渡到大规模生产的时间表仍不确定。在此之前,GPU 仍将是人工智能处理的主要选择,因此在不久的将来,GPU 的价格不太可能变得更低。