HBM2e

搜索文档
研报 | 英伟达H20出口解禁助力需求释放,预估中国外购AI芯片比例将回升至49%
TrendForce集邦· 2025-07-16 17:05
政策转折与市场影响 - NVIDIA有望被允许恢复对中国市场销售H20 GPU 政策转折将带动当地AI与云端业者的需求回补 [1] - H20将重新成为中国市场高端AI芯片主力 并同步增加HBM需求 [1] - 中国AI市场外购NVIDIA AMD等芯片比例从42%调升至49% 主要因出口禁令预期缓解 [2] 产品与技术升级 - H20恢复供货将优先用于大型CSP建设数据中心基础设施 有效释放中国AI应用端部署需求 [2] - NVIDIA将针对中国市场推出RTX PRO 6000特规版 补足边缘AI推理等多元应用需求 [2] - 2024年H20搭载HBM3 8hi 2025年初升级至HBM3e 8hi 同时提升总容量 [2] - 中国自研ASIC产品多使用HBM2e H20因技术优势更受青睐 其HBM消耗量比重将增加 [2] 市场动态与竞争格局 - 中国AI市场发展受国际形势影响 对NVIDIA仍存在不确定性 [2] - H20出口解禁后 当地CSP OEM等终端客户将积极累积库存 [2] - 本土AI供应商和生态系将在政策支持下快速发展 [2]
国外大厂的HBM需求分析
傅里叶的猫· 2025-06-15 23:50
HBM市场整体情况 - 2024年整体HBM消耗量预计达6.47B Gb,年增237.2%,其中NVIDIA占62%,AMD占9%,其他业者占29% [1] - 2025年整体HBM消耗量预估上修至16.97B Gb,年增162.2%,主要因NVIDIA及AWS的AI芯片出货预估上修 [1] - 2024年HBM2e、HBM3、HBM3e贡献的消耗量成三足鼎立,HBM3e 8hi及HBM2e 8hi最多 [1] - 2025年HBM3e将成为消耗量大宗,尤以HBM3e 12hi最多 [1] NVIDIA - 2024年HBM需求总量预计6.47B Gb,占AI存储器市场显著比例,近期调整为6.55B Gb [2] - 2024年第四季度H200型号出货量预计包括B100/B200和GB200系列,单卡HBM容量达144GB [2] - 2025年HBM需求预计下降至2.53B Gb,HBM3e 12hi层版本占比64%,反映市场对更高容量和性能需求增长 [2] - 主要供应商为Samsung和SK hynix [2] AMD - 2025年MI300系列AI芯片总需求约0.20B Gb,MI350系列提升至0.37B Gb [3] - MI300X配备8hi层192GB容量和12hi层4堆栈配置,MI308升级至12hi层8堆栈 [3] - MI325扩展至12hi层8堆栈,单卡容量达288GB [3] - 主要依赖SK hynix和Samsung提供的HBM3e 8hi和12hi版本 [3] Google - 2025年HBM需求预计0.41B Gb,主要来源于TPU v5和v6版本的训练需求 [4] - TPU v5训练需求约0.47B Gb [4] - 配置包括HBM2e 8hi层6堆栈96GB容量和HBM3e 8hi层8堆栈192GB容量 [4] - 采用自研ASIC芯片和Broadcom提供的IC芯片作为配套方案 [5] AWS - 2025年HBM需求预估0.28B Gb,Trainium v2需求约0.20B Gb,v3需求约0.08B Gb [6] - 主要型号包括HBM3e 12hi层4堆栈144GB容量和12hi层6堆栈288GB容量 [6] - 主要依赖SK hynix和Samsung提供的HBM芯片,同时开发in-house ASIC芯片 [6] Intel - 2025年HBM需求占比约10%,主要集中在HBM3e版本 [7] - 主要供应商为SK hynix和Micron [7] - 正在探索自研芯片以减少对外部供应链依赖 [7]