Workflow
存储架构
icon
搜索文档
英伟达,收尽天下之存储
新财富· 2026-03-09 16:16
文章核心观点 - AI计算正从单纯堆砌算力转向对计算、存储、网络协同架构的系统性重构,英伟达通过推出基于BlueField-4 DPU和NAND闪存池的“推理上下文内存存储平台”,旨在为AI推理打造一个容量巨大、成本经济的“海马体”,这不仅是其产品迭代,更将重塑存储行业的产业逻辑与价值分配 [4][5][24] - 存储,特别是NAND闪存,正从数据中心里存放冷数据的周期性商品,转变为直接参与AI核心计算过程的“温内存”或关键部件,其技术门槛、附加值和产业地位将因此大幅提升 [14][16][26] - 英伟达的新架构将创造巨大的高端NAND需求,并推动存储产业链进行结构性升级,开辟全新的高端细分市场,可能引发对高端晶圆及主控芯片的新一轮争夺 [21][26] 根据相关目录分别进行总结 0 1 涟漪已起,重构开始 - AI模型参数突破万亿、上下文窗口迈向百万乃至千万tokens时,海量中间状态(如KV Cache)的存储成为根本瓶颈,原有HBM+DRAM架构在容量和成本上不可持续 [5] - 英伟达在下一代Rubin架构中,推出基于BlueField-4 DPU构建的“推理上下文内存存储平台”,在GPU的HBM(热数据)和传统存储(冷数据)之间创造了一个新的“温数据”存储层级 [5][7] - Vera Rubin NVL72机架配备4颗BlueField-4 DPU,共同管理一个高达150TB的专用“上下文内存池”,专门存放AI推理中的KV Cache,实现数据在机架内GPU间的高效调度与共享 [7] 0 2 英伟达为什么必须做出改变 - BlueField-4 DPU集成了Arm CPU核心、高速网络接口和数据处理卸载能力,其角色是将存储管理、网络协议等负载从GPU上剥离,让GPU专注于计算,自身扮演全局存储大脑的角色 [9] - 新架构使NAND Flash从传统存储设备,被提升为GPU的大容量内存扩展层,单颗GPU可用的有效记忆体达到20TB,相比前代Blackwell架构单卡8TB的容量,实现了接近200%的暴涨 [10] - 在智能体AI时代,投资靠近计算单元的专用上下文存储层,已变得和投资计算单元本身同等重要,这是被未来产业需求所推动的必然变革 [14] 0 3 存储产业链的全新增量 - 英伟达的Vera Rubin平台采用三级存储层次:HBM4显存(带宽22TB/s,为前代Blackwell的2.8倍)、DRAM主存(容量1.5TB/CPU)以及基于NAND的推理上下文存储平台(ICMS) [16] - ICMS平台效果显著:可将MoE混合专家模型的Token生成成本降至原来的十分之一,同时NVFP4精度下的推理性能实现五倍提升 [20] - 每个NVL72机柜因此新增的NAND需求高达约1.152PB(72 GPU * 16TB),若先出货10万个此类机柜,将新增超过115EB的NAND需求,相当于2025年全球NAND总供给量的13%,这将开辟一个定价和利润率远高于传统企业级SSD的高端细分市场 [21] 0 4 结语 - ICMS平台让企业级固态硬盘(eSSD)在AI数据中心发生质变,从存放数据的仓库变成了参与计算的关键部件,将NAND存储行业从幕后推向前台 [26] - 存储巨头如三星、SK海力士正加速推进第六代HBM及HBF(高带宽闪存)等新技术研发,目标成为HBM的“辅助内存”,以应对预计从2026年起爆发的AI推理市场 [26] - 英伟达的战略转向与“物理AI”新阶段紧密相关,实现物理AI的核心在于持续、动态的推理过程,其性能、能效和成本是关键,而存储革新是支撑这一切的基础,也开启了存储行业估值的新逻辑 [27]
海力士+闪迪,存储芯片巨头力推 HBF 标准化
36氪· 2026-02-27 10:56
行业技术演进 - 存储芯片行业正经历技术迭代 HBM技术持续进化 同时新型内存HBF的商业化进程正在加快[1] - HBF技术的标准化启动 标志着下一代存储架构的竞争进入实质阶段[2] - HBF的出现是为了解决AI推理时代存储架构的瓶颈 旨在填补HBM与SSD之间的空白 提供兼具高带宽、大容量与高性价比的解决方案[2] HBF技术解析 - HBF是一种经架构重构与封装优化的新型存储半导体 借鉴HBM的3D堆叠技术 将存储介质替换为NAND闪存 并通过硅通孔技术实现高速数据传输[3] - 其采用CMOS直接键合到阵列设计 实现独立访问的存储器子阵列 大幅提升数据并行访问能力[3] - 单堆栈HBF容量可达512GB 8个堆栈可实现4TB容量 足以高效支撑大模型参数的高速读取需求[3] 市场应用与产业协同 - HBF并非要取代HBM 而是与之协同构建高效AI存储架构 HBM负责延迟敏感型任务 HBF专注于大容量顺序读取工作[4] - SK海力士推出的“H3混合架构”验证了该逻辑 仿真测试显示其每瓦性能较纯HBM方案最高提升2.69倍 在1000万token场景下并发查询量提升18.8倍 GPU使用量大幅减少[4] - 全球存储巨头纷纷加码布局 SK海力士与闪迪联手推进标准化 三星电子也已加入阵营 共同推动产业协同[6] 商业化前景与时间线 - 三星与闪迪计划在2027年底至2028年初 将HBF技术集成至英伟达、AMD、谷歌的相关产品中[6] - 闪迪预测首批HBF产品将于2026年下半年出样 搭载HBF的AI推理设备则将于2027年初出样[6] - 业界预计HBF的市场需求将于2030年进入快速增长通道 2038年市场规模有望超越HBM[6] 当前挑战 - HBF存在NAND闪存写入速度偏慢的固有短板 在缓存动态更新场景中可能影响用户体验[7] - HBF与现有GPU架构的兼容性、封装复杂度及设备散热等问题 仍需整个行业协同攻关解决[7]
SK海力士联手闪迪,启动HBF标准化,容量碾压HBM 10倍!
华尔街见闻· 2026-02-26 15:41
合作与标准化进程 - SK海力士与闪迪在开放计算项目框架下成立专属工作组,正式推进高带宽闪存全球标准化工作 [1] - HBF标准化工作正从三星电子、SK海力士与闪迪之间的双边协议,走向OCP平台下更大范围的产业协同 [3] - 此次标准化旨在构建协作体系,为整个AI生态系统的共同成长与优化奠定基础 [1][3] 技术定位与价值主张 - HBF被定位为填补HBM与SSD之间层级空白的关键解决方案,专为AI推理时代设计 [1] - 其核心价值在于构建一个介于超高速HBM与大容量SSD之间的全新存储层级,以解决AI推理场景下高容量数据处理与功耗效率难以兼顾的矛盾 [2] - HBF通过垂直堆叠NAND闪存,在维持高带宽的同时,提供约10倍于HBM的存储容量 [2] - 该技术旨在提升AI系统可扩展性,并有望降低系统的总拥有成本 [2] 商业化预期与市场前景 - 被称为“HBM之父”的Kim Joungho教授预计,HBF的落地节奏较此前预期明显提前 [1] - 三星电子与闪迪计划于2027年底至2028年初将HBF集成至英伟达、AMD及谷歌的产品中 [1] - 业界预计HBF相关存储解决方案的需求将于2030年前后进入快速增长阶段 [1] - 长期来看,HBF市场规模有望于2038年前后超越HBM [1][4] 行业竞争格局与驱动力 - 能够同时提供HBM与HBF的全栈存储解决方案供应商,其战略地位将持续提升 [1][5] - AI行业正从训练阶段加速向推理阶段转型,推理场景对快速、高效、大容量存储的需求急剧攀升,驱动HBF需求 [4] - 得益于HBM积累的工艺与设计经验,HBF的商业化周期将远短于当年HBM的开发历程 [4] - 在OCP框架下率先掌握标准化话语权的企业,有望在2030年前后需求提速的新兴市场中占据先机 [5]