AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[1] - 存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创下公司史上最高季度利润,美光科技实现净利同比增长三倍[1] - HBM需求旺盛,SK海力士2025年前的HBM产能已被客户预订一空[1] - 传统DRAM和NAND芯片意外走俏,因存储厂集中扩产HBM导致常规内存产能趋紧,亚马逊、谷歌、Meta等数据中心巨头大规模采购传统DRAM[1] LPDDR在AI推理市场的崛起 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用LPDDR内存技术路线,AI200配备768GB LPDDR内存,约为英伟达H100 HBM容量的10倍[2][4] - 英伟达下一代Vera Rubin超级芯片首次采用LPDDR内存,尽管仍配备HBM4,但LPDDR的出现显示技术路线调整[5] - 英特尔发布配备160GB LPDDR5X内存的数据中心GPU,专为AI推理工作负载设计[6] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行,高通Cloud AI 100 Ultra架构比同类英伟达配置功耗低20到35倍[10] 技术路线分野与市场影响 - 到2030年,推理工作负载数量将是训练工作负载的100倍,AI推理越来越受内存限制而非计算限制[8] - LPDDR方案存在内存带宽较低、延迟更高、服务器环境可靠性待验证等问题,但在推理场景中容量和成本优势远超带宽劣势[10] - 高通AI250引入近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能,两款方案机架级功耗仅160千瓦[4][10] - AI硬件市场呈现分层结构:训练市场HBM不可替代,推理市场LPDDR有望异军突起[18] LPDDR供应链潜在危机 - 单个AI推理机架LPDDR内存容量可达数十TB,相当于数十万至百万部智能手机用量,2026-2027年多家厂商量产将导致需求指数级增长[11] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心订单可能挤占消费电子份额,导致手机厂商面临采购成本上升、交货周期延长[11] - 手机厂商可能被迫接受更高内存成本、降低内存配置或寻找替代方案[12] LPDDR6技术发展 - JEDEC正式发布LPDDR6标准,核心架构演进为四个24位子通道,数据速率达10,667至14,400 MT/s,有效带宽28.5至38.4 GB/s[14][16] - LPDDR6引入DVFSL等功耗管理机制,Synopsys基于台积电N2P工艺的LPDDR6 IP带宽达86 GB/s,JEDEC标准理论峰值可达115 GB/s[14][17] - 主要厂商计划2025年起逐步停产DDR4,LPDDR6预计快速被行业采用,可能成为智能手机新标配但售价可能上涨[16][17] 产业格局变革 - AI产业正从不计成本的技术竞赛转向精打细算的商业化部署,推理领域对价格敏感为高通、英特尔等公司打开竞争大门[18] - 高通将移动领域基因与数据中心可扩展性结合,英特尔强调从AI PC到数据中心的端到端能力[18] - AI推理效率革命可能以牺牲消费者利益为代价,数据中心需求可能导致智能手机用户面临内存短缺、价格上涨或配置缩水[19][20]
他们抛弃了HBM