Workflow
HBM4e
icon
搜索文档
赛道Hyper | 媲美CoWoS:英特尔突破先进封装技术
华尔街见闻· 2025-06-02 21:52
公司技术进展 - 英特尔在电子元件技术大会(ECTC)上披露了EMIB-T芯片封装技术突破,包括新分散式散热器设计和热键合技术,可提高可靠性和良率并支持更精细的芯片间连接 [1] - EMIB-T技术升级集中在三方面:引入TSV垂直互连、集成高功率MIM电容器、跃升封装尺寸与集成密度 [1] - EMIB-T支持最大120x180毫米封装尺寸,单个封装可集成超过38个桥接器和12个矩形裸片,凸块间距达45微米,未来计划缩小至25微米 [2] - EMIB-T通过TSV供电将电源传输电阻降低30%以上,数据传输速率达32 Gb/s+,带宽提升约20%,延迟减少约15% [6][7] - 该技术支持有机基板和玻璃基板,后者可实现25微米凸块间距和更高效信号传输,是未来封装战略重点 [7] 技术应用与优势 - EMIB-T能稳定支持HBM4/4e内存的3.2 TB/s带宽,适用于AI加速器、数据中心处理器和超算芯片 [7][8] - 新型热压粘合工艺提升大型封装基板制造良率和可靠性,分解式散热器技术可将热界面材料焊料空隙减少25%,支持TDP高达1000W的芯片封装 [7] - 该技术为Chiplet设计提供统一封装平台,支持多来源芯片(如英特尔CPU、第三方GPU和内存)集成,AWS和思科已合作应用于下一代服务器 [8] - 与台积电CoWoS相比,EMIB-T在电源完整性和信号稳定性更具优势,Foveros-R/B等衍生技术拓展了应用场景 [9] 商业化与战略规划 - 西门子EDA推出基于TSV的EMIB-T参考流程,构建从热分析到信号完整性的完整工具链加速商业化 [9] - 英特尔计划2025年下半年实现EMIB-T量产,凸块间距从45微米逐步缩小至25微米,2028年目标单个封装集成超24颗HBM [9] - 公司采用开放策略,为完全不使用英特尔制造组件的芯片提供封装服务,以拓展代工厂客户关系 [9] - 该技术是英特尔代工厂战略的重要组成部分,将影响全球半导体封装技术发展方向 [9] 行业背景 - 现代处理器采用复杂异构设计集成多种计算和内存组件以提升性能、成本和能效 [4] - 先进封装技术是异构设计的基石,行业正向Chiplet设计转型 [5] - 英特尔需持续推进新技术研发以与台积电等竞争对手保持同步 [6]
下一代HBM:三大技术,定生死!
半导体行业观察· 2025-04-03 09:23
HBM技术发展趋势 - SK海力士强调下一代HBM商业化需多领域技术进步,尤其电源效率需与代工企业紧密合作[1] - HBM4的I/O数量相比HBM3E翻倍至2048个,客户需求最高达4000个I/O[3] - 功耗优化依赖逻辑工艺,HBM4开始逻辑芯片将由代工厂生产[3] - 容量扩展通过DRAM堆叠实现,当前12层将增至16层和20层[3] - 堆叠技术面临间距缩小挑战,16层堆叠需将DRAM间距减半[4] - 混合键合技术可减小芯片厚度并提升功率效率,但商业化存在技术难度[4][5] 三星HBM战略 - 已成功开发16层堆叠HBM3样品,计划用于HBM4量产[6] - 混合键合技术可提高信号传输速率30%,更适合AI计算需求[8] - 推行双重键合战略,同步开发混合键合和传统TC-NCF工艺[8] - HBM4模块高度限制增至775微米,TC-NCF工艺目标缩小晶圆间隙至7微米以内[10] - 计划采用4nm代工工艺量产逻辑芯片,核心芯片使用10nm第六代(1c)DRAM[16] 美光HBM布局 - HBM4按计划开发中,预计2026年量产,HBM4E同步推进[12] - HBM4采用1β DRAM技术,16层堆栈单芯片32GB容量,峰值带宽1.64TB/s[12] - HBM3E 12-Hi堆栈功耗比竞品8-Hi版本低20%,内存容量高50%[13] - HBM4E与台积电合作开发,提供定制基片增强数据传输速度[12][14] 行业竞争格局 - 韩国双雄均转向代工工艺,SK海力士拟采用台积电3nm工艺替代原5nm方案[16][17] - HBM4性能提升显著,SK海力士48GB堆栈速度8Gbps,三星目标9.2Gbps[19] - 美光称HBM4性能比HBM3E提升50%以上[19] - 下一代HBM4e瞄准更高密度,三星规划单层32Gb容量,SK海力士探索20层以上堆栈[20] - NVIDIA Rubin Ultra将采用16个HBM4e堆栈,单GPU内存达1TB[20] 技术演进方向 - HBM4成为下一代标准,在密度和带宽实现重大突破[19] - 混合键合技术可提升功率效率30%,但面临成熟度和成本挑战[8][5] - 三巨头均聚焦16层堆叠方案,12层36GB堆栈或成2026年主流[19] - 行业积极推动密度和带宽路线图,以支撑AI工作负载需求[22]