HBM,撞墙了!
半导体行业观察·2026-01-16 09:48
公众号记得加星标⭐️,第一时间看推送不会错过。 如果用一个词概括HBM这几年的进化,那就是:堆得越来越高。HBM本质上是一种"把 DRAM 垂直叠起来"的存储技术。层数越高,单颗 HBM 的容量越大、带宽越高,对 AI GPU 来说就越 香——因为 AI 真正稀缺的从来不是算力,而是喂数据的速度。 因此,HBM 的演进路线也非常清晰:从4层到8层、12层,再逼近16 层。8 层是 HBM 真正成熟、规 模化出货的主力,它是过去一段时间 AI GPU 的"最常见配置",良率稳定、供应链也最成熟;12层 则成为近两年的主力量产方向,在容量、性能与成本之间取得了更理想的平衡,也最适合大规模出 货。而截至目前,HBM 已经正式迈入16层堆叠的量产前夜:在刚刚结束的 CES 2026 上,SK 海力 士已经展出了全球首款16层 HBM4 样品,单堆栈容量提升至 48GB。 但层数的提升,并不只是"多堆几层"这么简单。事实上,每增加 4 层,整个系统的制造难度都会显著 上一个台阶:贴装精度、焊点间距、Z 方向高度控制、翘曲、底填(MUF)可靠性……所有原本还 能被工艺余量掩盖的问题,都会被 16 层这种高度放大到"生死线 ...