随着时间的推移,SK Hynix 和三星等 HBM 制造商改进了 HBM 的缺点。第一次更新,即 HBM2,将潜在速度提高了一倍,达到每堆栈 256 GB/s,最大容量达到 8 GB。2018 年,HBM2 又进行了小幅更新(HBM2E),容量限制进一步提高到 24 GB,速度也再次提升,最终达到每芯片 460 GB/s 的峰值。
HBM3 推出后,速度再次翻倍,每个堆栈的最高速度可达 819 GB/s。更令人印象深刻的是,容量增加了近三倍,从 24 GB 增加到 64 GB。与 HBM2E 一样,HBM3 也迎来了另一次中期升级,即 HBM3E,将每个堆栈的理论速度提高到 1.2 TB/s。
随着时间的推移,消费级显卡中的 HBM 逐渐被价格更有竞争力的 GDDR 内存所取代。高带宽内存成为数据中心的标准配置,工作场所显卡制造商选择使用速度更快的接口。
在各种更新和改进中,HBM 在所有迭代中都保留了相同的 1024 位(每个堆栈)接口。根据来自韩国的一份报告,当 HBM4 进入市场时,这种情况可能最终会改变。如果报道属实,内存接口将从 1024 位翻番至 2048 位。
理论上,跳转到 2048 位接口可以使传输速度再次翻番。遗憾的是,与 HBM3E 相比,内存制造商可能无法使用 HBM4 保持相同的传输速率。不过,更高的内存接口可以让制造商在显卡中使用更少的堆栈。
例如,NVIDIA 的旗舰 AI 显卡 H100 目前使用 6 个 1024 位的已知良好堆叠裸片,从而实现了 6144 位的接口。如果内存接口翻倍至 2048 位,理论上 NVIDIA 可以将芯片数量减半至三个,并获得相同的性能。当然,目前还不清楚制造商们会采取哪种方式,因为 HBM4 几乎肯定要在数年后才能投入生产。
目前,SK 海力士和三星都认为,当他们开始生产 HBM4 时,将能实现"100% 的良品率"。只有时间才能证明这些报道是否站得住脚,因此请谨慎对待这些消息。