Workflow
AI Chip
icon
搜索文档
一篇价值2W刀的报告--HBM产业分析总结版
是说芯语· 2025-05-07 11:12
市场概况与需求驱动 - 2025年全球HBM消耗量预计达到16.97B Gb,年增长率达162.2%,主要得益于NVIDIA与AWS的AI芯片需求超预期 [3] - NVIDIA占据70%的市场份额,AWS因中美地缘政治风险加速采购,HBM消耗量占比提升至8% [3] - HBM3e系列占比超过95%,HBM3和HBM2e合计份额不足5% [3] - HBM4价格预计比HBM3e溢价15%,2026年新产能释放可能引发价格竞争 [3] 供应商竞争格局 - SK海力士2025年出货量预计达12.4B Gb,市占率52%,主要得益于对NVIDIA的独家供应优势 [4] - SK海力士HBM3e 12hi产品良率持续优化,成为Blackwell平台B300/GB300芯片的核心配套 [4] - 三星电子2025年出货量预测下修至6.8B Gb,市占率降至29%,因HBM3e认证延迟和中国市场出口限制 [4] - 美光科技2025年HBM出货量预计达4.5B Gb,市占率从2023年的4%跃升至19%,主要得益于台湾厂区TSV产能扩张 [5] 客户需求动态 - NVIDIA的B100/B200芯片配套8颗HBM3e 8hi(192GB),B300/GB300升级至8颗HBM3e 12hi(288GB),单芯片HBM容量提升50% [6] - AMD的MI350系列芯片市场份额停滞在7%,中国特供版MI308芯片因政策限制提前采购 [6] - Google的TPU v6芯片转向HBM3e 8hi,份额从2023年的26%下滑至10% [7] - AWS通过Tranium v3芯片实现技术跃进,2025年份额提升至8% [7] 技术演进与成本挑战 - HBM3e 12hi通过增加堆叠层数和TSV密度,将单颗容量从24GB提升至36GB,但初期良率较低(SK海力士65%,美光75%) [8] - NVIDIA采用CoWoS-L封装,将8颗HBM4 12hi直接集成于逻辑芯片周围,提升带宽但增加中介层复杂度和成本 [8] - HBM4晶粒尺寸较前代增大20%,每片晶圆可切割芯片数减少,推高单位成本 [8] 供需平衡与长期风险 - 2025年HBM的S/D Ratio预计为39.7%,较2024年的88.6%大幅收窄 [9] - AI芯片算力需求可能被算法优化抵消,如DeepSeek的模型压缩技术可减少30%的HBM占用 [9] - 2028年NVIDIA计划推出配套16颗HBM4e的下一代平台,单芯片容量或突破512GB,但初期良率预计低于60% [10]