美光准备在2026年生产HBM4?

美光科技计划在2026年开始大规模生产HBM4,供给与英伟达Vera Rubin GPU和AMD的MI400系列。

随着英伟达(NVIDIA)的Vera Rubin GPU和AMD的Instinct MI400系列的问世,人工智能的军备竞赛似乎正进入白热化阶段。未来的计算速度会更快。

特斯拉的Dojo也有传言开始使用HBM4。

Sanjay Mehrotra在CES期间与詹森·黄会面讨论HBM 4的传言。我们知道这些芯片将内置在GPU中,因为目前Blackwell B100/B200 GPU中有8个HBM 3E内存堆栈。

根据 Tom's Hardware 的报道,HBM3E 12H 内存预计将用于 AMD 的 Instinct MI325X 和 MI355X 加速器,以及 NVIDIA 的 Blackwell B300 系列计算 GPU。

什么是HBM4?
HBM 4(High Bandwidth Memory 4)是高带宽内存技术的第四代产品,它是HBM3E(第五代)的后继产品,是目前商业化的最新一代HBM技术。

HBM是一种3D堆叠存储技术,提供超高带宽和低功耗特性。它是高性能芯片(如GPU、AI加速器和高性能计算芯片)的一种关键组件。HBM通过将存储芯片与处理器集成在一个封装中,大幅降低了延迟和能耗,同时显著提升数据传输速度。

HBM4旨在提高数据处理速度,同时保留更高的带宽、更低的功耗和更大的单个芯片或堆栈容量等关键特性。这些特性对于需要高效管理大型数据集和复杂计算的应用(如生成式人工智能、高性能计算、高端显卡和服务器)来说至关重要

  • 与HBM3相比,HBM4预计“每个堆栈的通道数翻倍”,这表明利用率更高,从而显著提升性能。
  • 此外,HBM4标准支持2048位接口和6.4GT/s的数据传输速率,与HBM3E相比,HBM4的单个堆栈带宽已达到1.6TB/s,极大地提升了内存系统的数据吞吐能力,能够更高效地满足人工智能、深度学习、大数据处理和高性能计算等领域对内存性能日益苛刻的需求。
  • HBM4还将继续采用3D堆叠技术,将多个DRAM芯片垂直堆叠在一起,通过硅通孔(TSV)技术实现芯片间的高速信号传输,大大缩短了数据传输的距离和延迟,从而能够以极高的带宽为处理器提供数据支持。这种技术使得HBM4在带宽、容量和能效等关键指标上实现了显著突破

涉及HBM 4的公司主要包括以下几家:

  • SK海力士:作为HBM技术的先行者,SK海力士始终保持着技术领先优势,是英伟达的HBM关键供应商。SK海力士计划在2025年下半年推出12层DRAM堆叠的首批HBM4产品,并与台积电合作生产下一代HBM
  • 美光科技:美光科技CEO Sanjay Mehrotra透露,美光科技2024年的HBM产能预计已全部售罄,并且正在打造24GB HBM3e芯片,配备8x3GB堆叠DRAM芯片(8高),供Nvidia在其H200 Tensor Core GPU中使用
  • 台积电:SK海力士和美光正在与台积电合作,使用3nm基础芯片开发HBM4和定制HBM4E
  • 雅克科技:子公司UPChemical是韩国存储芯片龙头SK海力士核心供应商
  • 兴森科技:提供PCBGA封装板
  • 通富微电:公司2.5D/3D生产线建成后,将实现国内HBM高性能封装技术的突破。