存储是Tokens的积分,产业链空间广阔
广发证券·2025-12-14 13:49

行业投资评级 - 报告对电子行业给予“买入”评级 [2] 核心观点 - 核心观点:存储是Tokens的积分,AI推理驱动存储需求快速增长,产业链空间广阔 [1][5] - AI服务器中的存储主要包括HBM、DRAM、SSD等,呈现性能逐级下降、容量逐级增加、成本逐级降低的特征 [13] - AI推理驱动存储快速增长,内存受益于超长上下文和多模态推理需求,SSD和HDD是Tokens的积分 [5][23] - AI推理驱动存储需求增长,产业链空间广阔,具体体现在eSSD、MRDIMM、SPD&VPD芯片以及CXL存储池化等领域 [5][25] - 投资建议:AI推理驱动存储周期持续向上,建议关注存储产业链相关标的,包括存储原厂、设备、代工、接口芯片等环节 [5][79] 根据相关目录分别总结 一、存储是TOKENS的积分,推理驱动AI存储快速增长 - AI服务器中的存储主要包括HBM、DRAM、SSD等,构成分级存储体系以支撑高效计算 [13][17] - 内存受益于超长上下文和多模态推理需求,高带宽与大容量内存可降低访问延迟、提升并行效率 [5][23] - SSD和HDD是Tokens的积分,用于存储推理生成的数据,预计未来整体需求将激增至数百EB级别 [5][23] - 基于关键假设测算,2026年10个谷歌级推理应用所需存储容量为49 EB,并预计2029年需求将达到55,367 EB [23][24] 二、AI推理驱动存储需求增长,产业链空间广阔 (一)AI&存储服务器用eSSD空间广阔 - eSSD在AI应用中主要用于训练、推理及数据存储三大场景,长上下文推理、RAG数据库及tokens规模增长将持续增强对其需求 [25] - 基于NVIDIA NVL72参考设计等假设测算,2024、2025、2026年AI服务器用eSSD理论最大市场空间分别为59 EB、89 EB、120 EB [27][30] - 从市场结构看,存储服务器用eSSD出货量增速最为明显,预计2024-2030年CAGR达54%,2030年市场规模将达614 EB [34][36] - AI服务器用eSSD同期CAGR预计为20%,2030年市场规模将达134 EB [34][36] (二)MRDIMM有望应用于大模型推理 - MRDIMM在大模型推理的KV Cache场景下可提供并发更高、上下文更长、端到端时延更低的确定性增益 [5][38] - 根据相关报告,MRDIMM Gen2在AI负载下相对DDR5 RDIMM带宽可提升2.3倍 [38][39] - MRDIMM单条支持最高128GB容量,并适配CPU侧KV Cache卸载,有助于缓解GPU显存压力并优化资源利用 [38][43] (三)SPD&VPD芯片空间广阔 - 随DDR5渗透率提升,SPD芯片技术规格和单价较DDR4世代更高,市场在价值量与需求量双重驱动下快速发展 [5][45] - DDR5 SPD容量从DDR4的512字节升级至1024字节,并集成I2C/I3C总线集线器,增加PMIC和温度传感器配置 [45] - SSD性能提升推动VPD EEPROM产品技术规格升级,其价值量有望随存储容量从4Kbit向上提升及总线从I2C升级至I3C而增加 [5][46] (四)CXL存储池化助力AI推理 - CXL协议可实现存储池化,显著提升计算效率,在KV Cache密集型推理中能形成显著的TCO优势 [5][53][56] - 案例显示,在DeepSeek-1.73B量化模型推理中,采用“1x CPU + CXL内存”配置与“2x CPU”配置性能基本持平,但成本、功耗和发热更低 [56][58] - 英伟达通过入股英特尔和收购Enfabrica布局CXL能力,旨在优化GPU与扩展内存的互连,提升计算效率 [59][61] - 阿里云推出了基于CXL 2.0 Switch技术的PolarDB数据库专用服务器,可实现百纳秒级延迟和数TB/s带宽的远程内存访问,提升推理吞吐 [67][68] - CXL互连芯片(包括MXC和Switch芯片)是技术落地的核心载体,随CXL内存池在服务器中渗透,其市场将进入爆发增长通道 [74][75]