作为首家出货 HBM3E 内存的公司,美光透露,其先进的高带宽内存(2024 年)已经全部售罄,而 2025 年的大部分产量也已分配完毕。美光的 HBM3E 内存(或美光的另一种叫法,HBM3 Gen2)是首批获得英伟达最新 H200/GH200 加速器认证的内存之一,因此这家 DRAM 制造商似乎将成为这家处于风口上的公司的重要供应商。
美光公司首席执行官 Sanjay Mehrotra 在本周财报电话会议的准备发言中表示:"我们 2024 年的 HBM 已经售罄,2025 年的绝大部分供应也已经分配完毕。我们仍然预计,在 2025 年的某个时候,HBM 位数份额将与我们整体 DRAM 位数份额相当"。
美光的首款 HBM3E 产品是一个 8-Hi 24 GB 堆栈,具有 1024 位接口、9.2 GT/s 数据传输速率和 1.2 TB/s 的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141 GB的可访问高带宽内存。
Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"
该公司还开始为其 12-Hi 36 GB 堆栈提供样品,容量提高了 50%。这些 KGSD 将于 2025 年量产,并将用于下一代人工智能产品。与此同时,英伟达的 B100 和 B200 看起来不会使用 36 GB HBM3E 堆栈,至少在初期不会。
人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的 A100 和 H100 处理器(以及它们的各种衍生产品)在 2023 年占据了整个人工智能处理器市场高达 80% 的份额。虽然今年英伟达在推理方面将面临来自 AMD、AWS、D-Matrix、英特尔、Tenstorrent 和其他公司更激烈的竞争,但英伟达的 H200 看起来仍将是人工智能训练的首选处理器,尤其是对于 Meta 和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达 H200 的 HBM3E 的主要供应商对美光来说是一件大事,因为它使美光最终能够在 HBM 市场上占据相当大的份额。
同时,由于 HBM 堆栈中的每个 DRAM 器件都有一个较宽的接口,因此在物理尺寸上要大于普通的 DDR4 或 DDR5 IC。因此,HBM3E 内存的量产将影响美光公司商品 DRAM 的位数供应。
"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E 消耗的晶圆供应量大约是 DDR5 的三倍。"