英伟达,收尽天下之存储
英伟达英伟达(US:NVDA) 新财富·2026-03-09 16:16

文章核心观点 - AI计算正从单纯堆砌算力转向对计算、存储、网络协同架构的系统性重构,英伟达通过推出基于BlueField-4 DPU和NAND闪存池的“推理上下文内存存储平台”,旨在为AI推理打造一个容量巨大、成本经济的“海马体”,这不仅是其产品迭代,更将重塑存储行业的产业逻辑与价值分配 [4][5][24] - 存储,特别是NAND闪存,正从数据中心里存放冷数据的周期性商品,转变为直接参与AI核心计算过程的“温内存”或关键部件,其技术门槛、附加值和产业地位将因此大幅提升 [14][16][26] - 英伟达的新架构将创造巨大的高端NAND需求,并推动存储产业链进行结构性升级,开辟全新的高端细分市场,可能引发对高端晶圆及主控芯片的新一轮争夺 [21][26] 根据相关目录分别进行总结 0 1 涟漪已起,重构开始 - AI模型参数突破万亿、上下文窗口迈向百万乃至千万tokens时,海量中间状态(如KV Cache)的存储成为根本瓶颈,原有HBM+DRAM架构在容量和成本上不可持续 [5] - 英伟达在下一代Rubin架构中,推出基于BlueField-4 DPU构建的“推理上下文内存存储平台”,在GPU的HBM(热数据)和传统存储(冷数据)之间创造了一个新的“温数据”存储层级 [5][7] - Vera Rubin NVL72机架配备4颗BlueField-4 DPU,共同管理一个高达150TB的专用“上下文内存池”,专门存放AI推理中的KV Cache,实现数据在机架内GPU间的高效调度与共享 [7] 0 2 英伟达为什么必须做出改变 - BlueField-4 DPU集成了Arm CPU核心、高速网络接口和数据处理卸载能力,其角色是将存储管理、网络协议等负载从GPU上剥离,让GPU专注于计算,自身扮演全局存储大脑的角色 [9] - 新架构使NAND Flash从传统存储设备,被提升为GPU的大容量内存扩展层,单颗GPU可用的有效记忆体达到20TB,相比前代Blackwell架构单卡8TB的容量,实现了接近200%的暴涨 [10] - 在智能体AI时代,投资靠近计算单元的专用上下文存储层,已变得和投资计算单元本身同等重要,这是被未来产业需求所推动的必然变革 [14] 0 3 存储产业链的全新增量 - 英伟达的Vera Rubin平台采用三级存储层次:HBM4显存(带宽22TB/s,为前代Blackwell的2.8倍)、DRAM主存(容量1.5TB/CPU)以及基于NAND的推理上下文存储平台(ICMS) [16] - ICMS平台效果显著:可将MoE混合专家模型的Token生成成本降至原来的十分之一,同时NVFP4精度下的推理性能实现五倍提升 [20] - 每个NVL72机柜因此新增的NAND需求高达约1.152PB(72 GPU * 16TB),若先出货10万个此类机柜,将新增超过115EB的NAND需求,相当于2025年全球NAND总供给量的13%,这将开辟一个定价和利润率远高于传统企业级SSD的高端细分市场 [21] 0 4 结语 - ICMS平台让企业级固态硬盘(eSSD)在AI数据中心发生质变,从存放数据的仓库变成了参与计算的关键部件,将NAND存储行业从幕后推向前台 [26] - 存储巨头如三星、SK海力士正加速推进第六代HBM及HBF(高带宽闪存)等新技术研发,目标成为HBM的“辅助内存”,以应对预计从2026年起爆发的AI推理市场 [26] - 英伟达的战略转向与“物理AI”新阶段紧密相关,实现物理AI的核心在于持续、动态的推理过程,其性能、能效和成本是关键,而存储革新是支撑这一切的基础,也开启了存储行业估值的新逻辑 [27]

英伟达,收尽天下之存储 - Reportify