High Bandwidth Memory

搜索文档
国泰海通:HBM产品不断迭代 产业链将持续发展
智通财经网· 2025-05-13 09:59
HBM行业概述 - HBM是将DRAM通过先进封装技术堆叠并与GPU整合于同一芯片上的高频宽存储器 [1] - AI服务器是HBM最重要的当前市场 未来智能驾驶汽车将大量采用HBM [1] - 中国HBM产业目前能量产HBM2和HBM2E 预计2026E/2027E实现HBM3和HBM3E突破 [1] - 本土HBM产业发展需依赖Fab、设计公司、设备及材料公司的协同 键合堆叠环节是关键突破点 [1] 全球HBM竞争格局 - 2023年全球HBM市场份额:SK Hynix 55% Samsung 41% Micron 3% [1] - SK Hynix为技术领导者:2013年推出首颗TSV通孔HBM 2024年10月量产12层36GB HBM3E 正在研发16层48GB HBM3E [1] - 技术迭代路径:2017年HBM2→2019年HBM2E→2021年HBM3→2023年HBM3E [1] SK Hynix技术演进 - 堆叠工艺发展:TC-NCF→MR-MUF→Advanced MR-MUF 16层HBM3E将采用Advanced MR-MUF并验证混合键合技术 [2] - 技术里程碑:2009年研发TSV通孔 2013年HBM采用TC-NCF 2023年12层HBM3采用Advanced MR-MUF [2] HBM供应链分析 - Samsung供应链:日本Toray/Sinkawa和韩国SEMES提供设备 [3] - SK Hynix供应链:HANMI Semiconductor/ASMPT/Hanhwa Precision Machinery为主 [3] - HANMI Semiconductor占全球TC Bonder市场65%份额 HBM3E领域占比达90% [3] - SEMES擅长TC-NCF工艺 HANMI与SK Hynix合作开发MR-MUF兼容TC-NCF的TC Bonder [3]
一篇价值2W刀的报告--HBM产业分析总结版
是说芯语· 2025-05-07 11:12
市场概况与需求驱动 - 2025年全球HBM消耗量预计达到16.97B Gb,年增长率达162.2%,主要得益于NVIDIA与AWS的AI芯片需求超预期 [3] - NVIDIA占据70%的市场份额,AWS因中美地缘政治风险加速采购,HBM消耗量占比提升至8% [3] - HBM3e系列占比超过95%,HBM3和HBM2e合计份额不足5% [3] - HBM4价格预计比HBM3e溢价15%,2026年新产能释放可能引发价格竞争 [3] 供应商竞争格局 - SK海力士2025年出货量预计达12.4B Gb,市占率52%,主要得益于对NVIDIA的独家供应优势 [4] - SK海力士HBM3e 12hi产品良率持续优化,成为Blackwell平台B300/GB300芯片的核心配套 [4] - 三星电子2025年出货量预测下修至6.8B Gb,市占率降至29%,因HBM3e认证延迟和中国市场出口限制 [4] - 美光科技2025年HBM出货量预计达4.5B Gb,市占率从2023年的4%跃升至19%,主要得益于台湾厂区TSV产能扩张 [5] 客户需求动态 - NVIDIA的B100/B200芯片配套8颗HBM3e 8hi(192GB),B300/GB300升级至8颗HBM3e 12hi(288GB),单芯片HBM容量提升50% [6] - AMD的MI350系列芯片市场份额停滞在7%,中国特供版MI308芯片因政策限制提前采购 [6] - Google的TPU v6芯片转向HBM3e 8hi,份额从2023年的26%下滑至10% [7] - AWS通过Tranium v3芯片实现技术跃进,2025年份额提升至8% [7] 技术演进与成本挑战 - HBM3e 12hi通过增加堆叠层数和TSV密度,将单颗容量从24GB提升至36GB,但初期良率较低(SK海力士65%,美光75%) [8] - NVIDIA采用CoWoS-L封装,将8颗HBM4 12hi直接集成于逻辑芯片周围,提升带宽但增加中介层复杂度和成本 [8] - HBM4晶粒尺寸较前代增大20%,每片晶圆可切割芯片数减少,推高单位成本 [8] 供需平衡与长期风险 - 2025年HBM的S/D Ratio预计为39.7%,较2024年的88.6%大幅收窄 [9] - AI芯片算力需求可能被算法优化抵消,如DeepSeek的模型压缩技术可减少30%的HBM占用 [9] - 2028年NVIDIA计划推出配套16颗HBM4e的下一代平台,单芯片容量或突破512GB,但初期良率预计低于60% [10]