Workflow
HBM4显存
icon
搜索文档
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Vera Rubin平台抢占先机
智通财经· 2026-03-18 14:57
文章核心观点 美光科技在英伟达GTC 2026大会上高调宣布,已正式为英伟达下一代Vera Rubin AI平台量产高性能HBM4显存,并展示了其全栈存储解决方案,这有力回击了其技术落后的市场传闻,巩固了其在AI算力供应链中的关键生态地位,并预示着HBM市场已转向基于深度技术绑定的新模式 [1][2][3] 美光科技的产品与技术进展 - 公司已正式为英伟达下一代Vera Rubin AI平台量产36GB 12-Hi HBM4显存,该产品带宽超过2.8 TB/s,能效比较前代提升20%以上 [1] - 公司已开始向核心客户交付更具颠覆性的48GB 16-Hi HBM4样品,单颗容量较当前36GB量产版本提升了33% [2] - 公司正推进下一代HBM4E的研发,预计将在2026年下半年进入抽样阶段 [2] - 公司展示了业界首款进入量产阶段的PCIe 6.0数据中心SSD (Micron 9650),其顺序读取速度达28 GB/s,并配合专为Vera CPU设计的192GB SOCAMM2内存模块,构建覆盖GPU显存、系统内存及高速缓存的完整存储闭环 [2][3] 市场与订单情况 - 公司管理层明确表示,其2026年全年的HBM产能已经基本售罄,且绝大部分订单已签署具有法律约束力的长期采购协议 [1] - 这种订单高度锁定的态势标志着HBM市场已由传统的周期性现货贸易,彻底转型为基于定制化技术协同的深度绑定模式 [2] - 随着HBM4在2026财年贡献实质性营收,公司的毛利率和盈利能力有望得到进一步修复 [3] 行业竞争与战略意义 - 公司以实际的HBM4量产出货,有力回击了2026年初市场关于其研发进度落后于SK海力士和三星的传闻,证明其在先进制程与封装工艺上已重回行业一线阵营 [3] - 作为美国本土唯一的HBM主要供应商,其战略溢价正在加速释放 [2] - 公司率先在英伟达Vera Rubin平台实现突破,为其在未来HBM4赛道的市场配比竞争中抢占了先机 [3] - 公司与英伟达的紧密合作确保计算与内存从设计之初便实现协同扩展,旨在构建释放下一代人工智能全部潜能的核心基础设施 [3] 市场反应 - 截至周二收盘,美光科技股价收涨4.5%,随后夜盘交易中延续涨势,再升2.21%,最终报收于471.97美元 [3]
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Veo Rubin平台抢占先机 
智通财经网· 2026-03-18 12:15
公司核心动态 - 美光科技在GTC 2026大会上正式确认为英伟达下一代Vera Rubin AI平台量产高性能HBM4显存[1] - 公司量产的36GB 12-Hi HBM4显存实现了超过2.8 TB/s的带宽,能效比较前代产品提升20%以上[1] - 公司2026年全年的HBM产能已基本售罄,绝大部分订单已签署具有法律约束力的长期协议[1] - 公司已开始向核心客户交付更具颠覆性的48GB 16-Hi HBM4样品,单颗容量较当前量产版本提升33%[2] - 公司正推进下一代HBM4E的研发,预计将在2026年下半年进入抽样阶段[2] - 公司展示了业界首款进入量产阶段的PCIe 6.0数据中心SSD,顺序读取速度达28 GB/s[2] - 公司配合专为Vera CPU设计了192GB SOCAMM2内存模块[2] - 公司通过全栈式供货能力优化了英伟达NVL72等超大规模系统的效率,并提升AI推理响应速度[2] - 公司以实际的HBM4量产出货回击了此前关于其研发进度落后的市场传言[3] - 美光科技执行副总裁强调,与英伟达的紧密合作确保计算与内存从设计之初便实现协同扩展[3] - 公司股价在消息公布后收涨4.5%,并在夜盘交易中再升2.21%,最终报收于471.97美元[3] 产品与技术进展 - 美光HBM4产品实现了超过2.8 TB/s的惊人带宽[1] - 36GB 12-Hi HBM4显存的能效比较前代产品提升20%以上[1] - 48GB 16-Hi HBM4样品单颗容量较当前量产版本提升33%[2] - 公司量产了业界首款PCIe 6.0数据中心SSD,顺序读取速度刷新行业纪录至28 GB/s[2] - 公司推出了专为Vera CPU设计的192GB SOCAMM2内存模块[2] - 公司正构建覆盖GPU显存、系统内存及高速缓存的完整存储闭环[2] 市场与行业格局 - HBM市场已由传统的周期性现货贸易,转型为基于定制化技术协同的深度绑定模式[1] - 美光作为美国本土唯一的HBM主要供应商,其战略溢价正在加速释放[1] - 全球三大存储巨头在HBM4赛道的博弈已进入白热化阶段[3] - 美光率先在英伟达Vera Rubin平台实现突破,为其在未来的市场配比竞争中抢占了先机[3] - 随着HBM4在2026财年贡献实质性营收,美光的毛利率和盈利能力有望得到进一步修复[3]
美光(MU.US)官宣HBM4量产 绑定英伟达(NVDA.US)Veo Rubin平台抢占先机
智通财经· 2026-03-18 12:11
核心观点 - 美光科技在英伟达GTC2026大会上高调宣布其HBM4产品量产及全栈存储解决方案落地 标志着公司作为美国本土唯一主要HBM供应商 在AI算力供应链中的生态地位得到巩固 并有力回击了此前关于其技术落后的市场质疑 [1][3] 产品与技术进展 - 公司正式为英伟达下一代Vera Rubin AI平台量产36GB 12-Hi HBM4显存 该产品实现了超过2.8TB/s的带宽 能效比较前代产品提升20%以上 [1] - 公司已开始向核心客户交付更具颠覆性的48GB 16-Hi HBM4样品 单颗容量较当前量产版本提升33% 旨在为Vera Rubin平台后续升级提供支持 [2] - 公司下一代HBM4E的研发正在推进 预计将在2026年下半年进入抽样阶段 [2] - 公司展示了系统级存储协同能力 包括业界首款进入量产阶段的PCIe 6.0数据中心SSD(Micron 9650) 其顺序读取速度达28GB/s 以及专为Vera CPU设计的192GB SOCAMM2内存模块 [2] 市场与订单情况 - 公司管理层明确表示 其2026年全年的HBM产能已经基本售罄 且绝大部分订单已签署具有法律约束力的长期采购协议 [1] - HBM市场已由传统的周期性现货贸易 转型为基于定制化技术协同的深度绑定模式 [1] 竞争格局与战略意义 - 公司以实际的HBM4量产出货 有力回击了2026年初市场关于其研发进度落后于SK海力士和三星的传闻 证明其在先进制程与封装工艺上已重回行业一线阵营 [3] - 随着HBM4在2026财年贡献实质性营收 公司的毛利率和盈利能力有望得到进一步修复 [3] - 公司在英伟达Vera Rubin平台率先实现突破 为其在未来的市场配比竞争中抢占了先机 [3] - 公司强调与英伟达的紧密合作确保计算与内存从设计之初便实现协同扩展 并正构建释放下一代人工智能全部潜能的核心基础设施 [3] 市场反应 - 截至周二收盘 美光科技股价收涨4.5% 随后夜盘交易中再升2.21% 最终报收于471.97美元 [3]
英伟达,收尽天下之存储
新财富· 2026-03-09 16:16
文章核心观点 - AI计算正从单纯堆砌算力转向对计算、存储、网络协同架构的系统性重构,英伟达通过推出基于BlueField-4 DPU和NAND闪存池的“推理上下文内存存储平台”,旨在为AI推理打造一个容量巨大、成本经济的“海马体”,这不仅是其产品迭代,更将重塑存储行业的产业逻辑与价值分配 [4][5][24] - 存储,特别是NAND闪存,正从数据中心里存放冷数据的周期性商品,转变为直接参与AI核心计算过程的“温内存”或关键部件,其技术门槛、附加值和产业地位将因此大幅提升 [14][16][26] - 英伟达的新架构将创造巨大的高端NAND需求,并推动存储产业链进行结构性升级,开辟全新的高端细分市场,可能引发对高端晶圆及主控芯片的新一轮争夺 [21][26] 根据相关目录分别进行总结 0 1 涟漪已起,重构开始 - AI模型参数突破万亿、上下文窗口迈向百万乃至千万tokens时,海量中间状态(如KV Cache)的存储成为根本瓶颈,原有HBM+DRAM架构在容量和成本上不可持续 [5] - 英伟达在下一代Rubin架构中,推出基于BlueField-4 DPU构建的“推理上下文内存存储平台”,在GPU的HBM(热数据)和传统存储(冷数据)之间创造了一个新的“温数据”存储层级 [5][7] - Vera Rubin NVL72机架配备4颗BlueField-4 DPU,共同管理一个高达150TB的专用“上下文内存池”,专门存放AI推理中的KV Cache,实现数据在机架内GPU间的高效调度与共享 [7] 0 2 英伟达为什么必须做出改变 - BlueField-4 DPU集成了Arm CPU核心、高速网络接口和数据处理卸载能力,其角色是将存储管理、网络协议等负载从GPU上剥离,让GPU专注于计算,自身扮演全局存储大脑的角色 [9] - 新架构使NAND Flash从传统存储设备,被提升为GPU的大容量内存扩展层,单颗GPU可用的有效记忆体达到20TB,相比前代Blackwell架构单卡8TB的容量,实现了接近200%的暴涨 [10] - 在智能体AI时代,投资靠近计算单元的专用上下文存储层,已变得和投资计算单元本身同等重要,这是被未来产业需求所推动的必然变革 [14] 0 3 存储产业链的全新增量 - 英伟达的Vera Rubin平台采用三级存储层次:HBM4显存(带宽22TB/s,为前代Blackwell的2.8倍)、DRAM主存(容量1.5TB/CPU)以及基于NAND的推理上下文存储平台(ICMS) [16] - ICMS平台效果显著:可将MoE混合专家模型的Token生成成本降至原来的十分之一,同时NVFP4精度下的推理性能实现五倍提升 [20] - 每个NVL72机柜因此新增的NAND需求高达约1.152PB(72 GPU * 16TB),若先出货10万个此类机柜,将新增超过115EB的NAND需求,相当于2025年全球NAND总供给量的13%,这将开辟一个定价和利润率远高于传统企业级SSD的高端细分市场 [21] 0 4 结语 - ICMS平台让企业级固态硬盘(eSSD)在AI数据中心发生质变,从存放数据的仓库变成了参与计算的关键部件,将NAND存储行业从幕后推向前台 [26] - 存储巨头如三星、SK海力士正加速推进第六代HBM及HBF(高带宽闪存)等新技术研发,目标成为HBM的“辅助内存”,以应对预计从2026年起爆发的AI推理市场 [26] - 英伟达的战略转向与“物理AI”新阶段紧密相关,实现物理AI的核心在于持续、动态的推理过程,其性能、能效和成本是关键,而存储革新是支撑这一切的基础,也开启了存储行业估值的新逻辑 [27]