文章核心观点 - 人工智能计算需求推动DRAM技术分化,四类同步DRAM(DDR、LPDDR、GDDR、HBM)针对不同场景优化,性能与功耗特性差异显著 [1][2][4] - HBM主导数据中心AI训练市场,但高成本限制其边缘应用;LPDDR凭借功耗优势渗透多领域;GDDR在AI领域定位模糊;DDR仍是CPU主流选择 [7][12][14][17] - 混合内存方案(如HBM+LPDDR)和定制化HBM成为新兴趋势,地缘政治因素影响中国厂商技术路线 [8][20] DRAM类型对比 DDR - 通用性最强,64位数据总线+双倍数据速率设计,延迟最低,适合CPU复杂指令处理 [1] - DDR5 RDIMM为服务器黄金标准,MRDIMM通过乒乓操作实现带宽翻倍但成本更高 [12] LPDDR - 集成深度/部分断电、温度补偿刷新等节能技术,BGA封装直接焊接,移动端主流 [2][3] - LPDDR6预计2024年底推出,新增ECC功能,时钟速度/总线宽度升级 [19] - 渗透数据中心(如NVIDIA Grace处理器)和边缘设备,但缺乏RAS功能 [15][16] GDDR - 专为GPU图形处理优化,带宽高于DDR但延迟更高,容量受限 [2] - 生成式AI潜在应用场景,但成本/性能定位模糊导致市场接受度低 [17] HBM - 堆叠芯片+宽总线设计,带宽最高但功耗/成本陡增,数据中心训练场景刚需 [2][7] - HBM4预计2026年上市,带宽/通道数较HBM3翻倍,定制化基础芯片提升传输效率 [8][20] 应用场景分化 数据中心 - HBM为训练核心,推理场景逐步引入LPDDR/GDDR混合方案 [7][8] - 超大规模厂商优先采用HBM,二线厂商因成本转向替代方案 [8] 边缘/移动端 - LPDDR主导功耗敏感设备(手机/汽车),DDR适用于线路供电场景 [14][16] - 汽车ADAS系统受限于1000瓦/1万美元成本红线,无法采用HBM [7] 技术演进趋势 - 内存与处理器需协同升级避免瓶颈,信号完整性成高速运行关键挑战 [21] - 中国厂商因地缘政治转向LPDDR5X/LPDDR6,避开HBM技术 [8]
人工智能,需要怎样的DRAM?
半导体行业观察·2025-06-13 08:46