Workflow
内存需求
icon
搜索文档
美光高管:内存需求爆了,全球再建5座超级晶圆厂也不够
华尔街见闻· 2026-05-06 16:33
文章核心观点 - AI驱动的内存需求正以超出行业预期的速度爆炸式增长,这轮繁荣与过往的周期性波动有本质区别,且趋势不会放缓 [1][3][4] - 内存已成为数据中心AI推理环节突破瓶颈的关键战略资产,也是训练先进模型的核心支撑 [4] AI推理的独特需求与“内存墙” - AI推理对内存的需求特殊,其使用方式是“记忆”而非训练的“学习与遗忘”,推理过程需要调用历史计算结果(KV缓存)来生成答案 [7] - 若内存不足以存储历史状态(KV缓存),模型必须从头重新计算,导致每一轮所需的算力相当于此前所有轮次的总和,算力需求呈指数级增长;若能存储状态,则算力需求仅为线性增长 [8] - 内存不足会急剧降低GPU算力利用率,而提供足够快、足够大的内存,理论上可以从GPU中榨取出平方倍的算力 [9] - 推动KV缓存需求膨胀的因素包括:上下文长度正以每年30倍的速度增长、模型参数量增大、并发使用AI的用户增多 [10] AI数据中心的内存层级结构 - 从GPU到远端存储构成一条完整的“存储链”,目前整个层级从上到下都处于供不应求的状态 [11][16] - **第一层 HBM**:紧贴GPU,速度最快,典型容量在10至100GB之间,但容量有限 [12] - **第二层 主内存**:连接至CPU,容量是HBM的4至20倍,但速度更慢、距离更远,例如英伟达Blackwell系统的主内存连接至Grace CPU [12] - **第三层 扩展内存**:通过光纤连接的独立内存模块,尚未大规模量产部署 [13] - **第四层 上下文内存存储**:使用SSD存储KV缓存,容量可达HBM的1000倍,但延迟更高、带宽更低 [14] - **第五层 数据湖**:数据中心底层的海量SSD存储,以EB(艾字节)计 [15] 美光科技的产品与战略应对 - 公司在HBM和SSD两个方向同时发力以应对需求 [18] - **HBM4**:带宽是上一代HBM3e的两倍以上,提升带宽的核心逻辑在于当瓶颈是内存带宽时,必须加快数据送达GPU的速度 [20] - **SSD**:推出245TB超大容量SSD,相比数据中心普遍部署的30TB出头硬盘,可大幅减少设备数量、网络连接、电源及风扇等配套设施,将存储占地面积压缩逾80%,并显著降低功耗 [21][22] - 产品创新旨在解决数据中心最棘手的两大约束:电力预算和物理空间,目标是在固定功耗预算内提供更高效的性能(更高效的每瓦特GB) [23][24] 行业产能与供需状况 - 内存行业的产能已经无法跟上AI驱动的爆炸性需求,整个行业都受制于洁净室空间,且这一状况短期内难以改变 [24][26] - 美光正在全球同步推进五座晶圆厂的建设,包括美国爱达荷州(60万平方英尺洁净室)、纽约州、弗吉尼亚州(扩建)、新加坡、日本(DRAM设施扩建)以及从中国台湾PSMC收购的一座晶圆厂 [26] - 整个行业(包括英特尔、英伟达、台积电等)均处于满负荷状态,晶圆厂产能扩张无法一蹴而就 [27] 市场认知与AI发展前景 - 市场目前看到云服务商资本开支大幅增加并担忧其可持续性,但公司认为这些企业正经历一场潜力巨大的革命,其潜力仍超出大多数人的想象 [29] - AI的应用场景远未饱和:训练时代已过,推理时代刚刚开始,而智能体AI和物理AI尚未真正大规模落地,当前只是刚刚触及AI变革的表面 [29] - 硅谷内外对AI的认知存在巨大落差,行业外许多人尚未意识到未来20年将发生的变革 [29]