11 月 28 日消息,根据集邦咨询公布的最新 HBM 市场研究报告,英伟达为了健全现有供应链,计划引入更多的 HBM 供应商。
根据该机构报告中分享的时间轴报告,英伟达 7 月底已经收到了美光的 8hi(24GB)样品;8 月收到了 SK 海力士的 8hi(24GB)样品;今年 10 月初收到了三星的 8hi(24GB)样品。
由于 HBM 验证过程繁琐,预计耗时两个季度,因此,TrendForce 集邦咨询预期,英伟达最快在 2023 年底,完成部分厂商的 HBM3e 验证,而三大原厂预计于 2024 年第一季完成所有验证。
值得注意的是,各原厂的 HBM3e 验证结果,也将决定最终英伟达 2024 年在 HBM 供应商的采购权重分配,然目前验证皆尚未完成,因此 2024 年 HBM 整体采购量仍有待观察。
展望 2024 年,观察目前各 AI 芯片供应商的项目进度,NVIDIA 2023 年的高端 AI 芯片(采用 HBM)的既有产品为 A100 / A800 以及 H100 / H800;2024 年则将把产品组合(Product Portfolio)更细致化地分类。
除了原上述型号外,还将再推出使用 6 颗 HBM3e 的 H200 以及 8 颗 HBM3e 的 B100,并同步整合 NVIDIA 自家基于 Arm 架构的 CPU 与 GPU,推出 GH200 以及 GB200。
除了 HBM3 与 HBM3e 外,据 TrendForce 集邦咨询了解,HBM4 预计规划于 2026 年推出,目前包含 NVIDIA 以及其他 CSP(云端业者)在未来的产品应用上,规格和效能将更优化。
受到规格更往高速发展带动,将首次看到 HBM 最底层的 Logic die(又名 Base die)采用 12nm 制程 wafer,该部分将由晶圆代工厂提供,使得单颗 HBM 产品需要结合晶圆代工厂与存储器厂的合作。
再者,随着客户对运算效能要求的提升,HBM4 在堆栈的层数上,除了现有的 12hi (12 层) 外,也将再往 16hi (16 层) 发展,更高层数也预估带动新堆栈方式 hybrid bonding 的需求。HBM4 12hi 产品将于 2026 年推出;而 16hi 产品则预计于 2027 年问世。