HBM市场整体情况 - 2024年整体HBM消耗量预计达6.47B Gb,年增237.2%,其中NVIDIA占62%,AMD占9%,其他业者占29% [1] - 2025年整体HBM消耗量预估上修至16.97B Gb,年增162.2%,主要因NVIDIA及AWS的AI芯片出货预估上修 [1] - 2024年HBM2e、HBM3、HBM3e贡献的消耗量成三足鼎立,HBM3e 8hi及HBM2e 8hi最多 [1] - 2025年HBM3e将成为消耗量大宗,尤以HBM3e 12hi最多 [1] NVIDIA - 2024年HBM需求总量预计6.47B Gb,占AI存储器市场显著比例,近期调整为6.55B Gb [2] - 2024年第四季度H200型号出货量预计包括B100/B200和GB200系列,单卡HBM容量达144GB [2] - 2025年HBM需求预计下降至2.53B Gb,HBM3e 12hi层版本占比64%,反映市场对更高容量和性能需求增长 [2] - 主要供应商为Samsung和SK hynix [2] AMD - 2025年MI300系列AI芯片总需求约0.20B Gb,MI350系列提升至0.37B Gb [3] - MI300X配备8hi层192GB容量和12hi层4堆栈配置,MI308升级至12hi层8堆栈 [3] - MI325扩展至12hi层8堆栈,单卡容量达288GB [3] - 主要依赖SK hynix和Samsung提供的HBM3e 8hi和12hi版本 [3] Google - 2025年HBM需求预计0.41B Gb,主要来源于TPU v5和v6版本的训练需求 [4] - TPU v5训练需求约0.47B Gb [4] - 配置包括HBM2e 8hi层6堆栈96GB容量和HBM3e 8hi层8堆栈192GB容量 [4] - 采用自研ASIC芯片和Broadcom提供的IC芯片作为配套方案 [5] AWS - 2025年HBM需求预估0.28B Gb,Trainium v2需求约0.20B Gb,v3需求约0.08B Gb [6] - 主要型号包括HBM3e 12hi层4堆栈144GB容量和12hi层6堆栈288GB容量 [6] - 主要依赖SK hynix和Samsung提供的HBM芯片,同时开发in-house ASIC芯片 [6] Intel - 2025年HBM需求占比约10%,主要集中在HBM3e版本 [7] - 主要供应商为SK hynix和Micron [7] - 正在探索自研芯片以减少对外部供应链依赖 [7]
国外大厂的HBM需求分析