核心观点 - AI行业的高速发展正遭遇“内存墙”瓶颈,即内存容量与带宽的严重短缺成为制约算力发挥和行业进步的关键因素[1][2] - DRAM等存储芯片因AI数据中心需求激增而价格暴涨,严重挤压了消费电子市场的供给,导致PC、手机等产品面临成本上升和体验停滞[5][8] - “内存墙”问题不仅推高了硬件成本,更在能耗、延迟和AI模型创新速度上对行业发展构成了根本性挑战[13][17] 行业现状与价格趋势 - 2025年下半年起,存储芯片价格全面飙升,DDR5颗粒现货价自2025年9月以来累计上涨约307%[6] - 高容量服务器内存价格极高,单条顶配价格突破4万元人民币,100根总价达400万元人民币[1][6] - 花旗银行预测2026年DRAM平均售价同比将上涨88%,大幅高于此前53%的预期[2][8] - TechRadar预测DRAM价格在2026年3月将接近翻倍,且PC DRAM合约价在2026年初可能明显上调[3][10] - 行业预测显示,DRAM价格在上涨后将在更高区间企稳,廉价充裕的内存时代已告终结[19] 供需失衡与市场影响 - AI服务器内存需求显著高于普通服务器,叠加HBM和高容量DDR5的产能倾斜,大量吸走了原本分配给PC和手机的产能[5] - OpenAI、谷歌等AI巨头以“价格不设上限”的方式疯狂扫货并提前锁定2026年产能,导致消费级市场供给枯竭[5] - 存储巨头美光(Micron)的CEO警告,新产能仅能满足客户需求的二分之一到三分之二[9] - PC端供应商开始选择性配货,优先保障大型整机厂OEM,压缩对第三方模组厂商的供货[10] - 分析师和行业人士已采取行动避险,例如TrendForce资深研究副总裁已提前购买iPhone17[9] “内存墙”的技术瓶颈 - 训练大模型所需的计算量以每两年750倍的速度增长,远超DRAM带宽(每两年增长1.6倍)和互连带宽(每两年增长1.4倍)的增长速度[13] - 过去20年,芯片算力峰值提升60000倍,但DRAM带宽仅提升约100倍,互连带宽增长约30倍,极度不匹配[13] - 在AI推理场景中,内存已成为主要瓶颈,导致昂贵的GPU算力因等待数据而经常处于闲置状态[14] - 训练大模型需要3到4倍于参数量的内存,数据搬运速度慢于计算速度,主导了大型语言模型的运行延迟[14] “内存墙”引发的连锁问题 - 能耗问题:在冯·诺依曼架构下,数据在内存与处理器间搬运的能耗,在某些情况下可能远高于计算本身,甚至达到百倍量级,造成巨大能源浪费[17] - 延迟与体验:内存带宽限制导致像ChatGPT处理长文本时变慢变卡,影响了用户体验[17] - 创新速度:若无法突破“内存墙”,更大参数量的AI模型将难以在合理时间和成本内完成训练,从而减缓AI创新的整体速度[17] 突破“内存墙”的技术路径 - HBM(高带宽内存):采用硅通孔技术将DRAM芯片垂直堆叠,像“摩天大楼”一样直接连接处理器,以提供极高带宽,这是目前最直接但昂贵的方案[18] - CXL(计算高速互连协议):建立“内存池”,让CPU和GPU共享内存,打破单机容量限制,提高资源利用率[18] - PIM(存内计算):让内存自身具备计算能力,实现数据在哪里就在哪里计算,从根本上消除数据搬运的能耗和延迟问题[18]
100根内存条换一套房,AI疯狂吞噬全球内存,普通人电脑快买不起了
36氪·2026-01-20 15:22