HBM技术概述 - 高带宽内存(HBM)采用独特的3D堆叠结构,通过先进封装技术将多个DRAM芯片垂直堆叠(通常为4层、8层或12层),带宽远高于GDDR等传统内存解决方案[1] - HBM具备高带宽和低延迟特性,已成为AI大模型训练与推理的关键组件,在AI芯片中扮演"L4缓存"角色,显著提升数据读写效率并缓解内存带宽瓶颈[2] HBM技术演进 - HBM1于2014年发布,带宽128GB/s,存储密度1GB内存[2] - HBM2于2016年由三星率先发布,带宽提升至256GB/s,堆叠层数发展到4层和8层[2] - HBM2E于2019年由三星率先发布,SK海力士产品带宽达460GB/s[2] - HBM3于2022年由SK海力士发布,带宽819GB/s,堆叠层数达12层,容量提升到24GB[2] - HBM3E于2024年由SK海力士量产,带宽1229GB/s,容量达24GB或36GB[2] - 所有HBM代际均保持1024位接口宽度[2] SK海力士市场表现 - SK海力士在HBM领域市场份额显著领先,与三星的份额差距已扩大至两倍以上[3] - 2024年第二季度,SK海力士以约21.8万亿韩元的DRAM及NAND销售额首次超越三星电子(约21.2万亿韩元),登顶全球存储销售额榜首[3] - SK海力士是英伟达的主要独家供应商,其HBM3E产品2025年的8层及12层产能已全部售罄[3] - 截至2024年第一季度,SK海力士在HBM市场份额达53%,三星电子占比38%,美光科技占10%[17] 三星电子市场状况 - 三星电子因向英伟达交付延迟错失良机,在HBM3E领域大幅落后于SK海力士[4] - 三星HBM市场份额从2023年第二季度的41%暴跌至2024年第二季度的17%[4] - 三星计划2025年将HBM供应量提升至2024年的两倍[17] HBM替代方案开发 - 行业厂商加速技术创新,探索HBM替代方案[5] - 三星电子重启Z-NAND内存技术,目标将性能提升至传统NAND闪存的15倍,功耗降低多达80%[6] - 新一代Z-NAND将搭载GPU发起的直接存储访问(GIDS)技术,允许GPU直接从存储器获取数据[6] - NEO Semiconductor推出X-HBM架构,基于3D X-DRAM技术,带宽达到现有内存技术的16倍,密度为现有技术的10倍[10] - X-HBM具备32K位总线和每芯片512Gbit容量,可绕过传统HBM技术需耗时十年才能突破的性能瓶颈[10] - Saimemory研发全新堆叠式DRAM架构,目标容量较传统DRAM提升至少一倍,功耗较HBM降低40%-50%[11] - 闪迪与SK海力士联合制定高带宽闪存(HBF)规范,计划2026年下半年推出首批样品[12] - HBF通过用NAND闪存替代部分内存堆栈,在成本与带宽接近DRAM型HBM基础上,将容量提升至后者的8-16倍[13] 架构创新 - 存算一体架构(PIM/CIM)在存储器本体或邻近位置集成计算功能,规避传统架构中"计算-存储-数据搬运"的瓶颈[15] - 该架构能缩短系统响应时间,使能效比实现数量级提升,有望将对高带宽内存的依赖度降低一个数量级[15] - 华为发布UCM推理加速套件,融合多种缓存加速算法工具,可减少对HBM的依赖同时提升推理性能[16] 市场现状与趋势 - 2025年初HBM3芯片现货价格较2024年初暴涨300%[17] - 单台AI服务器的DRAM用量达到传统服务器的8倍[17] - 美光科技目标2025年将HBM市占率提升至20%以上[17] - 未来AI内存市场将呈现异构多元的层级体系,各类技术针对特定工作负载实现精准优化[18] - HBM聚焦训练场景,PIM内存服务于高能效推理,专用片上内存架构适配超低延迟应用[18] - 新型堆叠DRAM与光子互连等技术也将在系统中占据一席之地[18]
HBM,挑战加倍
36氪·2025-08-19 18:59