浸入式冷却技术

搜索文档
AI芯片功耗狂飙,冷却让人头疼
半导体行业观察· 2025-06-18 09:26
AI GPU功耗趋势 - AI GPU功耗持续上升,Nvidia下一代GPU热设计功耗(TDP)预计达6,000-9,000W,KAIST预测未来10年将飙升至15,360W [1] - 高性能风冷系统已无法满足需求,Blackwell TDP达1,200W,Blackwell Ultra达1,400W需液冷方案 [3] - Rubin TDP将达1,800W,Rubin Ultra因GPU芯片和HBM模块数量翻倍TDP飙升至3,600W [3] 冷却技术演进 - Blackwell Ultra采用直接芯片(D2C)液冷技术,Feynman需更强大冷却方案 [3] - Feynman TDP达4,400W,Feynman Ultra达6,000W需浸入式冷却技术 [4] - 后Feynman时代GPU TDP将达5,920W(后Feynman)和9,000W(后Feynman Ultra) [5] - 2035年AI GPU功耗或达15,360W需嵌入式冷却结构,采用热传输线(TTL)和流体硅通孔(F-TSV) [11] 技术规格发展 - GPU Die尺寸从Rubin的728mm²缩减至下一代架构的600mm²,但单Die功耗从800W增至1,200W [12] - HBM堆栈数量从Rubin的8个增至后Feynman的16个,下一代架构达32个 [12] - 总带宽从Rubin的16/32TB/s跃升至下一代架构的1,024TB/s [12] - HBM容量从Rubin的288/384GB增至下一代架构的5,120/6,144GB [12] - HBM6单堆栈功耗达120W,16个堆栈总功耗约2,000W占模块总功耗三分之一 [11] 封装技术演进 - 中介层尺寸从Rubin的46.2mm增至下一代架构的96.4mm [12] - GPU Die数量从Rubin的2个增至下一代架构的8个 [12] - 中介层Die面积从Rubin的2,194mm²增至下一代架构的9,245mm² [12]