Workflow
马提尼吸管问题
icon
搜索文档
他们抛弃了HBM!
半导体行业观察· 2025-11-01 09:07
AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[2] - 全球三大存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创公司史上最高季度利润,美光科技净利同比增长三倍[2] - SK海力士2025年前的HBM产能已被客户预订一空,传统DRAM和NAND芯片因存储厂集中扩产HBM导致产能趋紧,市场供需再平衡[2] - 亚马逊、谷歌、Meta等数据中心巨头为扩充AI推理与云服务能力大规模采购传统DRAM,AI推理阶段普通内存仍发挥不可替代作用[2] 芯片巨头转向LPDDR技术路线 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用专为数据中心AI工作负载定制的Hexagon NPU[4] - AI200机架级解决方案配备768GB LPDDR内存,使用PCIe互连和以太网扩展,采用直接液冷技术,机架功率达160kW[7] - AI250保留相同架构但增加近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能实现计算和内存资源动态共享[7] - 英伟达下一代Vera Rubin超级芯片在其88核Vera CPU周围采用SOCAMM2模块搭载LPDDR内存,尽管GPU仍配备八个HBM4内存堆栈[8] - 英特尔发布代号"Crescent Island"的数据中心GPU,配备160GB LPDDR5X内存,针对风冷企业服务器优化,预计2026年下半年客户采样[9] LPDDR方案的技术优势与应用场景 - 到2030年推理工作负载数量将是训练工作负载的100倍,AI推理工作负载越来越受内存限制而非计算限制[11] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行无需频繁数据混洗[13] - 高通Cloud AI 100 Ultra架构在某些推理工作负载下比同类英伟达配置功耗低20到35倍[13] - 训练场景需要极致内存带宽处理海量数据反向传播,HBM不可替代,而推理场景模型参数已固定,重点是大容量存储和高效读取[13] - LPDDR存在内存带宽较低、延迟较高及服务器环境可靠性未充分验证等问题,但容量和成本优势远超带宽劣势[13] LPDDR6技术标准与性能突破 - JEDEC正式发布LPDDR6标准,核心架构从双通道演进为四个24位子通道,实现更高并行度与更低访问延迟[19] - LPDDR6数据速率达10,667至14,400 MT/s,有效带宽约28.5至38.4 GB/s,超越DDR5-12054超频纪录[22] - Synopsys完成基于台积电N2P工艺节点的LPDDR6 IP硅验证,带宽可达86 GB/s,JEDEC标准理论峰值甚至达115 GB/s[23] - LPDDR6预计明年进入量产阶段,可能取代LPDDR5成为智能手机标配,但售价可能大幅上涨[23] 供应链影响与市场格局变化 - 单个AI推理机架配备LPDDR内存量级惊人,高通AI200单个机架总内存容量可达数十TB,相当于数十万至百万部智能手机用量[16] - 当高通、英特尔、英伟达等公司在2026-2027年大规模量产LPDDR方案时,对LPDDR需求将呈指数级增长[16] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心客户采购量大、利润率高、订单稳定,可能挤占消费电子份额[16] - 手机厂商面临LPDDR采购成本上升、交货周期延长,可能导致中高端手机在内存配置上妥协或大幅提高售价[16] - AI硬件市场呈现明显分层结构:训练市场HBM不可替代,英伟达/AMD主导;推理市场LPDDR有望异军突起[27]