AI超级计算机
搜索文档
闪存芯片,越来越缺
半导体行业观察· 2026-02-18 09:13
行业周期性特征 - DRAM和闪存市场具有显著的繁荣与萧条周期,价格波动剧烈,行业参与者需承受巨大波动 [2] - 2022年底至2023年,受IT行业需求萎缩影响,DRAM和闪存价格下跌超过50%,内存和闪存厂商库存积压严重 [2] - 当前,受GenAI繁荣驱动,DRAM和闪存需求远超供应,价格已飙升至高位 [2] DRAM市场现状与挑战 - 全球超过一半的服务器需要配备数百GB的HBM堆叠式内存以满足需求 [3] - HBM3内存堆叠制造过程复杂,每个正常工作的八层堆叠需要消耗三个DRAM芯片,堆叠过程良率低且随技术迭代进一步降低 [3] - HBM的旺盛需求消耗了大量本可用于高性能服务器DDR5内存的芯片产能,加剧了DRAM供应紧张 [3] 闪存市场现状与驱动因素 - 闪存代工厂(包括铠侠、美光、三星、闪迪、Solidigm及长江存储等)产能无法迅速提升,市场需求远超供应 [3] - 2023年是内存市场历史上最严重的低迷期,但自2023年9月底起需求开始恢复,并在2024年第一季度突然热销 [4] - 2023年底至2025年底的两年间,因闪存盘需求超过供应,价格上涨了50%到70% [5] - 驱动闪存需求的核心因素是用于英伟达“AI工厂”或“AI超级计算机”的分层存储架构 [5] AI超级计算机的存储架构 - 英伟达AI工厂架构包含四层存储:G1层为GPU上的HBM内存,G2层为主机服务器上的DRAM内存,建议G2容量为G1的2到4倍 [6] - G3层为节点或机架级闪存存储,用于存储中间处理数据及检查点维护,以防计算失败 [6] - G4层为外部的网络存储,用于存储对象和文件 [7] - 英伟达将推出新的G3.5层级,称为推理上下文内存存储,使用BlueField-4 DPU作为存储控制器 [7] - 有观点认为架构应包含基于超大容量硬盘的G5级存储,但英伟达参考架构中未包含此层 [7] AI发展带来的闪存需求测算 - 对于一个1吉瓦(Gbps)的英伟达系统(使用Grace CPU和Blackwell GPU),可支持约55万个GPU [8] - 按英伟达建议,每个GPU需配备15TB的G3内部闪存和30TB的G4外部网络闪存 [8] - 据此计算,1吉瓦的AI系统安装需要总计25艾字节(EB)的闪存容量(内部8.5 EB + 外部16.5 EB) [8] - 基于行业数据估算,2023年出货约300万个计算引擎(插槽),消耗约135 EB闪存;2024年出货约700万个,消耗约315 EB闪存;2025年出货约1000万个,消耗约450 EB闪存 [8] - 预计2026年需求将大幅增长,而供应增长缓慢,价格将继续上涨,闪存制造商将显著受益 [9]