文章核心观点 - 随着AI计算对内存需求激增,全球存储技术创新进入加速期,SK海力士提出名为H³的混合存储新架构,该架构结合HBM与HBF技术,旨在显著提升AI计算(尤其是推理)的能效与性能,并大幅减少所需GPU数量 [3][5][6] - 行业认为HBM容量已难以满足万亿参数大模型需求,HBF因其超大容量被视为最佳解决方案,同时AI需求也为利基存储(如SLC NAND)打开了新的增量市场空间 [7] 存储技术创新与H³架构 - SK海力士提出全新存储架构H³,同时采用HBM和HBF两种技术,在仿真实验中,将8个HBM3E和8个HBF置于英伟达Blackwell GPU旁,与单独使用HBM相比,每瓦性能提升高达2.69倍 [3] - H³架构在AI推理领域优势显著,其核心是使用HBF来存储不断增长的键值缓存,从而让GPU和HBM能专注于高速计算和创建新数据 [5][6] - 在模拟处理高达1000万个令牌的海量键值缓存场景时,与仅使用HBM的配置相比,采用HBF的系统处理并发查询的能力提升了高达18.8倍,以前需要32个GPU的工作负载,现在只需2个GPU即可完成 [6] HBF技术特性与产业进展 - HBF通过堆叠NAND闪存制成,被类比为“图书馆”,容量大但延迟较高,而HBM则像“书房”,容量小但使用方便 [5] - 在研的HBF存储容量有望达到现有HBM的8至16倍,有望将GPU的存储容量扩展至4TB [7] - SK海力士计划最早于2024年推出采用16层NAND闪存堆叠的HBF1样品,三星电子和闪迪则计划最快在2027年底或2028年初将HBF技术应用于英伟达、AMD和谷歌的实际产品中 [6] 行业趋势与市场影响 - 当前大模型参数规模已达万亿级别,上下文长度普遍超过128K,HBM容量已难以满足AI大模型对内存容量的要求 [7] - AI需求有望为利基存储打开增量空间,SLC NAND有望应用于AI SSD产品及HBF中,以高效处理AI推理数据 [7] - 由于利基存储产能持续被主流存储挤压,其涨价趋势有望持续 [7]
存储黑科技来了
财联社·2026-02-12 14:24