Workflow
这类内存,火起来了
半导体行业观察·2025-03-20 09:19

SOCAMM技术介绍 - 美光、三星和SK海力士推出采用LPDDR5X内存的小型压缩附加内存模块(SOCAMM),面向AI和低功耗服务器,尺寸为14x90毫米(传统RDIMM的三分之一),最多承载四个16芯片LPDDR5X堆栈 [1] - 美光初始SOCAMM模块提供128GB容量,基于1β(第五代10nm级)DRAM工艺,内存速度高达9.6 GT/s;SK海力士展示的SOCAMM速度达7.5 GT/s [1] - SOCAMM将首先用于Nvidia GB300 Grace Blackwell Ultra Superchip系统的服务器,结合高容量、高性能、小尺寸和低功耗特性 [1] 技术优势与行业影响 - 美光128GB SOCAMM功耗仅为同等容量DDR5 RDIMM的三分之一,显著降低服务器能耗 [2] - SOCAMM提供标准模块化解决方案,解决Nvidia GB200因缺乏标准LPDDR5X模块而需焊接内存的问题 [2] - 模块化设计简化服务器生产和维护,可能降低设备价格,目前已投入量产 [3] 性能与设计创新 - SOCAMM相比传统DRAM和LPCAMM拥有更多I/O端口(694个 vs LPCAMM的644个和传统DRAM的260个),提升数据传输能力 [4] - 采用可拆卸模块设计,便于后续升级,硬件占用空间仅约成人中指大小,可能提高总容量 [4] - LPDDR5X内存直接放置在基板上,能效高于SO-DIMM外形尺寸的传统DRAM [4] 市场应用与行业合作 - Nvidia与三大内存制造商合作推进SOCAMM标准,原型正在性能测试阶段,预计2025年CES发布的Project Digits AI计算机继任者将采用该技术 [3][4] - SOCAMM可能成为专为AI工作负载优化的新标准,满足本地AI模型对DRAM的高需求,但尚未获得JEDEC支持 [4][5] - Nvidia在CES 2025强调AI主流化战略,SOCAMM的推出可能加速AI硬件升级周期 [5]