内存与芯片协同

搜索文档
赛道Hyper | 海力士携手英特尔轰击英伟达帝国?
华尔街见闻· 2025-07-02 14:06
行业趋势 - AI芯片性能瓶颈从计算能力扩展到数据传输环节 传统DDR内存串行传输导致数据等待时间占比超30% [2] - HBM4通过2048-bit接口实现并行数据传输 内存带宽提升至前代1.5倍+ 解决"计算快、传输慢"矛盾 [2] - 内存与芯片协同关系演变为决定AI系统竞争力的核心要素 符合大型数据中心训练和边缘设备推理的需求 [1] 技术突破 - HBM4采用CoWoS封装技术 通过TSV互联缩短数据传输路径 显著降低内存延迟 [2] - 在图像生成领域 HBM4处理512x512分辨率图像速度比HBM3快40% [2] - 自动驾驶实时推理中 HBM4实现每秒30GB数据无延迟传输 [2] - 金融高频交易AI模型可将响应时间压缩至微秒级 [3] 公司动态 - SK海力士韩国利川HBM4生产线启动二期扩建 预计2026年量产 总产能达30万片晶圆 [4] - 英特尔Jaguar Shores通过HBM4实现内存带宽行业领先 计划2026年与微软Azure部署AI服务器集群 [6] - SK海力士与台积电合作将HBM4集成到CoWoS参考设计 降低芯片厂商适配难度 [9] 市场竞争 - 英伟达在AI芯片市场占据70%+份额 英特尔试图通过硬件差异化破局 [5] - HBM领域形成"三国杀"局面:三星2025年量产12层堆叠HBM4 美光2026年目标能效比提升25% [7] - 竞争可能推动HBM技术迭代周期从两年缩短至一年 2027年HBM5研发或提前启动 [7] 应用场景 - 数据中心运营商尝试多厂商AI芯片混合部署 谷歌TPU与英伟达GPU已应用混合集群 [7] - 亚马逊AWS将对Jaguar Shores进行6个月性能测试 涵盖训练速度/能耗比等指标 [8] - 英特尔开发动态内存分区调度算法 提升BERT模型训练效率 [9] 技术挑战 - HBM4芯片组热密度达150W/cm² 超出传统风冷能力 英特尔开发浸没式液冷方案 [8] - 单颗HBM4制造成本为HBM3E的1.3倍 因I/O数量翻倍/设计复杂度增加/采用更先进制程 [8]