HBM技术概述 - HBM已成为AI革命的核心基础设施,通过垂直堆叠内存Die大幅提升带宽和数据传输效率,突破传统内存瓶颈 [2] - 与GDDR和LPDDR相比,HBM迭代速度更快,带宽增长惊人 [2] - 2024年SK海力士和三星合计占据HBM市场90%份额(SK海力士54%,三星39%),美光占7% [2] - HBM4被视为下一代里程碑产品,三大巨头正展开战略性竞赛 [2] 市场竞争格局 SK海力士 - 定位HBM为"近内存",比传统DRAM更接近计算核心,具有更高带宽和更快响应速度 [4] - HBM4带宽比HBM3E提升200%,整体优势提升60%,容量最高达36GB,带宽超2TB/s,能效提升40% [5] - 采用3D TSV堆叠实现高容量,宽通道并行传输实现高带宽,单位比特传输能耗更低 [4] 三星 - HBM带宽持续提升:HBM2(307GB/s)→HBM2E(461GB/s)→HBM3(819GB/s)→HBM3E(1.17TB/s)→HBM4(2.048TB/s) [6] - HBM4采用FinFET工艺,性能提升200%,面积减少70%,功耗减少50% [8] - 推出HCB混合键合技术,支持堆叠层数提升33%,热阻提升20% [9][10] 美光 - 跳过HBM3直接推出HBM3E,成为英伟达H200 GPU供应商 [11] - HBM4计划2026年推出,带宽从HBM3E的1.2TB/s提升至超2TB/s,能效提升超20% [11] - HBM4采用12层堆叠设计,容量36GB [11] HBM技术演进 - 从HBM2到HBM4E,芯片尺寸不断增加(HBM2 121mm²→HBM4E 156.2mm²),功耗从12W增至42.5W [7] - 能效持续提升:HBM2 6.25pJ/bit→HBM3E 4.05pJ/bit [8] - HBM4容量24Gb,带宽2.4TB/s;HBM4E容量32Gb,带宽3.12TB/s [9] - 从标准HBM向定制HBM发展,集成GPU/ASIC功能以提升性能和降低总拥有成本 [16] 市场前景 - 全球HBM收入预计从2024年170亿美元增至2030年980亿美元,CAGR 33% [19] - HBM在DRAM市场收益份额将从2024年18%增至2030年50% [19] - 位出货量从2023年1.5B GB增至2024年2.8B GB,预计2030年达7.6B GB [19] - 晶圆生产量从2023年216K WPM增至2024年350K WPM,预计2030年达590K WPM [20] - HBM每比特成本是DDR的3倍(HBM4将达4倍),但定价是DDR的6倍(HBM4将达8倍),毛利率达70% [20] 制造工艺 - HBM制造需经过前端和后端七大步骤,包括硅刻蚀、TSV铜填充、芯片堆叠等 [14] - 核心发展策略是通过前端工艺改进提升带宽和单Die密度 [14] - 三大供应商采用不同堆叠技术:SK海力士用MR-MUF,三星和美光用TC-NCF [14] - 2026年HBM4/HBM4E可能采用新键合技术,2028年HBM5将采用晶圆到晶圆混合键合 [16]
HBM4,箭在弦上