AI存储技术路线转变
搜索文档
他们抛弃了HBM
36氪· 2025-11-03 08:47
AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[1] - 存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创下公司史上最高季度利润,美光科技实现净利同比增长三倍[1] - HBM需求旺盛,SK海力士2025年前的HBM产能已被客户预订一空[1] - 传统DRAM和NAND芯片意外走俏,因存储厂集中扩产HBM导致常规内存产能趋紧,亚马逊、谷歌、Meta等数据中心巨头大规模采购传统DRAM[1] LPDDR在AI推理市场的崛起 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用LPDDR内存技术路线,AI200配备768GB LPDDR内存,约为英伟达H100 HBM容量的10倍[2][4] - 英伟达下一代Vera Rubin超级芯片首次采用LPDDR内存,尽管仍配备HBM4,但LPDDR的出现显示技术路线调整[5] - 英特尔发布配备160GB LPDDR5X内存的数据中心GPU,专为AI推理工作负载设计[6] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行,高通Cloud AI 100 Ultra架构比同类英伟达配置功耗低20到35倍[10] 技术路线分野与市场影响 - 到2030年,推理工作负载数量将是训练工作负载的100倍,AI推理越来越受内存限制而非计算限制[8] - LPDDR方案存在内存带宽较低、延迟更高、服务器环境可靠性待验证等问题,但在推理场景中容量和成本优势远超带宽劣势[10] - 高通AI250引入近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能,两款方案机架级功耗仅160千瓦[4][10] - AI硬件市场呈现分层结构:训练市场HBM不可替代,推理市场LPDDR有望异军突起[18] LPDDR供应链潜在危机 - 单个AI推理机架LPDDR内存容量可达数十TB,相当于数十万至百万部智能手机用量,2026-2027年多家厂商量产将导致需求指数级增长[11] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心订单可能挤占消费电子份额,导致手机厂商面临采购成本上升、交货周期延长[11] - 手机厂商可能被迫接受更高内存成本、降低内存配置或寻找替代方案[12] LPDDR6技术发展 - JEDEC正式发布LPDDR6标准,核心架构演进为四个24位子通道,数据速率达10,667至14,400 MT/s,有效带宽28.5至38.4 GB/s[14][16] - LPDDR6引入DVFSL等功耗管理机制,Synopsys基于台积电N2P工艺的LPDDR6 IP带宽达86 GB/s,JEDEC标准理论峰值可达115 GB/s[14][17] - 主要厂商计划2025年起逐步停产DDR4,LPDDR6预计快速被行业采用,可能成为智能手机新标配但售价可能上涨[16][17] 产业格局变革 - AI产业正从不计成本的技术竞赛转向精打细算的商业化部署,推理领域对价格敏感为高通、英特尔等公司打开竞争大门[18] - 高通将移动领域基因与数据中心可扩展性结合,英特尔强调从AI PC到数据中心的端到端能力[18] - AI推理效率革命可能以牺牲消费者利益为代价,数据中心需求可能导致智能手机用户面临内存短缺、价格上涨或配置缩水[19][20]
他们抛弃了HBM!
半导体行业观察· 2025-11-01 09:07
AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[2] - 全球三大存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创公司史上最高季度利润,美光科技净利同比增长三倍[2] - SK海力士2025年前的HBM产能已被客户预订一空,传统DRAM和NAND芯片因存储厂集中扩产HBM导致产能趋紧,市场供需再平衡[2] - 亚马逊、谷歌、Meta等数据中心巨头为扩充AI推理与云服务能力大规模采购传统DRAM,AI推理阶段普通内存仍发挥不可替代作用[2] 芯片巨头转向LPDDR技术路线 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用专为数据中心AI工作负载定制的Hexagon NPU[4] - AI200机架级解决方案配备768GB LPDDR内存,使用PCIe互连和以太网扩展,采用直接液冷技术,机架功率达160kW[7] - AI250保留相同架构但增加近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能实现计算和内存资源动态共享[7] - 英伟达下一代Vera Rubin超级芯片在其88核Vera CPU周围采用SOCAMM2模块搭载LPDDR内存,尽管GPU仍配备八个HBM4内存堆栈[8] - 英特尔发布代号"Crescent Island"的数据中心GPU,配备160GB LPDDR5X内存,针对风冷企业服务器优化,预计2026年下半年客户采样[9] LPDDR方案的技术优势与应用场景 - 到2030年推理工作负载数量将是训练工作负载的100倍,AI推理工作负载越来越受内存限制而非计算限制[11] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行无需频繁数据混洗[13] - 高通Cloud AI 100 Ultra架构在某些推理工作负载下比同类英伟达配置功耗低20到35倍[13] - 训练场景需要极致内存带宽处理海量数据反向传播,HBM不可替代,而推理场景模型参数已固定,重点是大容量存储和高效读取[13] - LPDDR存在内存带宽较低、延迟较高及服务器环境可靠性未充分验证等问题,但容量和成本优势远超带宽劣势[13] LPDDR6技术标准与性能突破 - JEDEC正式发布LPDDR6标准,核心架构从双通道演进为四个24位子通道,实现更高并行度与更低访问延迟[19] - LPDDR6数据速率达10,667至14,400 MT/s,有效带宽约28.5至38.4 GB/s,超越DDR5-12054超频纪录[22] - Synopsys完成基于台积电N2P工艺节点的LPDDR6 IP硅验证,带宽可达86 GB/s,JEDEC标准理论峰值甚至达115 GB/s[23] - LPDDR6预计明年进入量产阶段,可能取代LPDDR5成为智能手机标配,但售价可能大幅上涨[23] 供应链影响与市场格局变化 - 单个AI推理机架配备LPDDR内存量级惊人,高通AI200单个机架总内存容量可达数十TB,相当于数十万至百万部智能手机用量[16] - 当高通、英特尔、英伟达等公司在2026-2027年大规模量产LPDDR方案时,对LPDDR需求将呈指数级增长[16] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心客户采购量大、利润率高、订单稳定,可能挤占消费电子份额[16] - 手机厂商面临LPDDR采购成本上升、交货周期延长,可能导致中高端手机在内存配置上妥协或大幅提高售价[16] - AI硬件市场呈现明显分层结构:训练市场HBM不可替代,英伟达/AMD主导;推理市场LPDDR有望异军突起[27]