人工智能系统中的DRAM类型 - 人工智能涉及高强度计算和海量数据,DRAM类型的选择取决于系统类型,包括CPU、GPU或专用加速器[1] - 同步DRAM(SDRAM)分为四类:DDR、LPDDR、GDDR和HBM,各有目标用途和优缺点[1] - DDR内存与CPU搭配使用,针对复杂指令集架构优化,具有最快延迟和64位数据总线[1] - LPDDR在保持高性能的同时降低功耗,采用多项节能技术如降低电源电压、温度补偿刷新率等[2][3] - GDDR配合GPU进行图形处理,带宽高于DDR但延迟也更高,容量是主要问题[4] - HBM具有非常宽总线的DRAM芯片堆栈,提供极高带宽,适合AI训练等数据密集型计算[4] 不同类型DRAM的应用场景 - 数据中心是HBM主要应用领域,尤其适合训练和超高速接口,但成本使其局限于云端[7] - HBM价格和能耗高,但在数据中心中与芯片成本相比增量无关紧要[7] - 二线厂商因产量不足难以获得HBM支持,需做出权衡[8] - DDR通常服务于数据中心中协调操作的CPU,而加速器依赖HBM和LPDDR[10] - LPDDR开始渗透到各种系统,可作为降低功耗的选择,甚至尝试堆叠创建穷人版HBM[14] - GDDR在AI系统中较少使用,处于HBM和LPDDR之间的尴尬位置[16] DRAM技术发展趋势 - LPDDR5X已上市且价格合理,LPDDR6预计今年年底上市,性能将有提升[18] - HBM4是下一代高带宽内存,带宽、通道数和数据总线宽度均翻倍,预计2026年上市[19] - 定制HBM成为新兴切入点,可替换标准逻辑基础芯片为专有功能芯片[8] - 混合内存方案日益流行,如DDR和LPDDR组合或HBM和LPDDR组合[8] - 所有DRAM标准源自JEDEC,不同类型有各自委员会推进发展[18] 系统设计考量 - 处理器和内存独立发展,未来总会有跨越式发展,需保持同步[21] - 高质量访问信号对高速运行至关重要,需考虑信号完整性[22] - 系统设计师需为特定系统选择最合适内存并确保系统能跟上[22] - LPDDR进入数据中心可降低功耗,但缺乏RAS功能和ECC支持[15] - GDDR适合图形相关生成算法,但容量限制可能成为障碍[16]
人工智能,需要怎样的DRAM?
半导体行业观察·2025-06-13 08:40