Workflow
Rubin Ultra GPU
icon
搜索文档
告别54V时代,迈向800V,数据中心掀起电源革命
36氪· 2025-08-07 19:21
AI数据中心电力需求变革 - 全球AI数据中心电力需求正因ChatGPT、Claude、DeepSeek等AI应用爆发而达到临界点,机架功率从传统20-30kW跃升至500kW-1MW级别,英伟达单AI GPU服务器功率逼近1kW,满配NVL AI服务器机柜功率突破100kW [1] - 2027年规划的1MW AI Factory机架集群对供电系统提出颠覆性要求,行业加速向800V直流HVDC高压体系演进,该架构可降低能量损耗、提升能效并支持兆瓦级部署 [1] 传统供电系统局限性 - 传统54V直流供电系统在兆瓦级机架中面临空间占用过大问题:NVIDIA GB200 NVL72设备需8个电源架占用64U空间,挤压计算设备安装空间 [2] - 1MW机架采用54V供电需200千克铜母线,1GW数据中心需50万吨铜,且重复交直流转换导致效率低下和故障隐患增加 [3] - 800V HVDC方案可将13.8kV交流电直接转换,减少中间环节,降低70%维护成本并提升5%端到端能效 [4][5] 行业技术布局动态 - 英伟达2025年牵头成立800V HVDC联盟,目标2027年实现1MW单机架供电,整合芯片/电源/电气工程/数据中心全产业链 [4] - 微软推出Mount DrD Low分离式架构计划升级至400V HVDC,谷歌设计±400V全场直流供电方案,Meta分三步推进兆瓦级HVDC [5] - 英诺赛科成为英伟达800V架构唯一中国合作商,合作推动单机柜功率突破300kW,算力密度提升10倍 [6] 国产供应链技术突破 - 长电科技在800V架构中覆盖PSU/IBC/PoL全环节:提供TO263-7L/TOLL/TOLT封装分立器件和塑封模块,兼容GaN/SiC材料 [7] - 实现双面散热PDFN封装和SiP技术突破,完成60A以上高集成度电源模块研发,建立从热仿真到性能优化的全流程服务能力 [8] GaN技术优势分析 - 英诺赛科入选源于GaN供应紧张(台积电关闭产线),GaN相比SiC在高压场景具备更优性能表现 [9] - GaN HEMT器件具有ns级开关速度、无反向恢复电流特性,适合高频应用,能提升转换效率并缩减设备体积 [10][11] - GaN器件通过二维电子气导电实现低导通电阻,在800V架构中可减少发热量并提高功率密度 [12]
台积电下一代技术或延期!
国芯网· 2025-07-16 22:31
台积电CoPoS封装技术延期 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要由于技术不成熟,包括面板与晶圆差异处理、更大面积翘曲控制及更多重分布层(RDL)等挑战 [1] - 该技术旨在通过更大面板尺寸(310x310mm)提升面积利用率,支持英伟达等客户的AI GPU需求 [1] 英伟达潜在技术路线调整 - 技术延期可能促使英伟达在2027年计划推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,以规避单一模块封装限制 [1] 台积电资本支出与技术布局 - 台积电可能将2026年芯片后段资本支出转向其他技术如WMCM和SoIC,以应对CoPoS延期 [1] - CoWoS产能分配成为AI产业链关键监测点 [1] 行业影响 - 野村产业调研显示台积电CoPoS技术发展进度明显放缓,原计划2027年量产推迟至2029年下半年 [1]
台积电关键技术,或延期
半导体芯闻· 2025-07-16 18:44
台积电CoPoS技术延期影响 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要因技术不成熟,包括面板与晶圆差异处理、大面积翘曲控制及多重分布层(RDL)等挑战 [2][3][4] - 该技术旨在通过更大面板尺寸(如310x310mm)提升面积利用率,支持AI GPU需求,但进度明显放缓 [4] 英伟达产品路线调整 - CoPoS延期可能迫使英伟达在2027年推出的Rubin Ultra GPU转向多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,通过基板连接分散的GPU模块 [2][3][5] - 原计划需8个CoWoS-L互连器整合芯片堆栈,现可能改为两个模块各含4个GPU [5] - 架构调整或增加设计复杂性和成本,但可规避技术延误风险 [6] 台积电资本支出与技术布局 - 台积电CoWoS产能预计2025年底达7万片/月,2026年底达9-10万片/月,后续增长或依赖效率提升而非设备采购 [7] - CoPoS延期或促使2026年后段资本支出(占总量10%)转向晶圆级多芯片模块(WMCM)和系统集成芯片(SoIC)技术 [7] - 市场对WMCM预期可能过度乐观,而SoIC预期较保守 [8] 设备供应商潜在影响 - CoPoS相关设备供应商(如至圣工业、天虹科技、友威科技)可能因技术延期推迟需求,但仍有望受益于长期投资 [8]
台积电下一代芯片技术进度或慢于预期,这对AI芯片产业链意味着什么?
华尔街见闻· 2025-07-16 11:26
台积电CoPoS技术延期影响 - 台积电CoPoS封装技术量产时间可能从2027年推迟至2029-2030年,主要因技术不成熟,包括面板与晶圆差异处理、大面积翘曲控制及更多重分布层等技术挑战[1][2] - CoPoS技术旨在通过更大面板尺寸(310x310mm)提升面积利用率,支持AI GPU需求[2] 英伟达产品策略调整 - 英伟达可能被迫在2027年推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,以规避CoPoS延迟影响[1][3] - 原计划需8个晶圆大小CoWoS-L互连器整合芯片堆栈,现可能改为将4个Rubin GPU分布在两个模块上通过基板连接[3] - 架构调整可能增加设计复杂性和成本,但可规避技术延误风险[3] 台积电资本支出与产能规划 - 台积电2025-2026年CoWoS月产能预计分别为7万片和9-10万片晶圆,未计划进一步提前采购设备[4][5] - 2026年后段资本支出(占总量10%)可能更多投向晶圆级多芯片模块(WMCM)和系统集成芯片(SoIC)技术[1][5] - 市场对WMCM预期可能过度乐观,而对SoIC预期较保守[5] 产业链设备商影响 - FOPLP设备供应商如至圣工业、天虹科技、友威科技可能受益于CoPoS相关投资,但技术延误或推迟其设备需求[5]
英伟达,主宰800V时代
半导体芯闻· 2025-07-11 18:29
Nvidia主导AI数据中心电力架构革新 - Nvidia虽不设计功率器件,但正在定义下一代AI数据中心的动力总成架构,推动800V高压直流(HVDC)技术转型[1] - 合作伙伴包括英飞凌、MPS、Navitas等半导体厂商,以及台达、施耐德电气等电力系统供应商[1] - 计划2027年推出Rubin Ultra GPU和Vera CPU,淘汰54V机架配电技术以应对千瓦级功率需求[4] 宽带隙半导体技术竞争格局 - 英飞凌被Yole评为电力电子领导者,覆盖SiC、GaN及半导体继电器全技术栈[9][12] - Navitas通过收购GeneSiC强化SiC能力,同时利用GaN技术开发48V至处理器供电方案[13] - Yole预测GaN增速将超SiC,SiC市场约1亿美元而GaN机会更大[16] 800V HVDC技术挑战与创新 - 需开发800V转12V/50V高密度转换器,GaN因高频特性适合中压转换,SiC主导高压环节[6][8] - 新型半导体继电器需求涌现,需解决过流保护问题替代传统机械开关[9] - 固态变压器技术可能重塑电网架构,Navitas布局超高压SiC相关应用[14] 行业生态与标准化进程 - Nvidia的激进路线可能使开放计算项目(OCP)标准过时,导致数据中心兼容性分化[15] - 超大规模企业如谷歌/Meta的应对策略未明,电力电子供应商或需服务多套技术路线[15][16]
下一代GPU发布,硅光隆重登场,英伟达还能火多久?
半导体行业观察· 2025-03-19 08:54
核心观点 - 英伟达在GTC大会上发布了新一代GPU路线图,包括Blackwell Ultra、Vera Rubin和Feynman架构,展示了其在AI计算领域的持续创新 [2][7][13] - 公司预计2028年数据中心资本支出规模将突破1万亿美元,美国四大云端龙头已订购360万个Blackwell芯片 [1] - 黄仁勋强调AI计算正经历根本性变革,从文件检索转向Token生成,数据中心建设向加速计算发展 [43][44] Blackwell Ultra平台 - Blackwell Ultra提供288GB HBM3e内存,比原版Blackwell的192GB提升50% [3] - FP4计算能力比H100提升1.5倍,NVL72集群运行DeepSeek-R1 671B模型仅需10秒,而H100需要1.5分钟 [4] - 单个Ultra芯片提供20 petaflops AI性能,DGX GB300 Superpod集群拥有300TB内存和11.5 exaflops FP4计算能力 [3] - 适用于代理式AI和物理AI应用,可自主解决复杂多步骤问题和实时生成合成视频 [6] 性能对比 - B300在FP4 Tensor Dense/Sparse性能达15/30 petaflops,比B200的10/20 petaflops提升50% [4] - FP64 Tensor Dense性能达68 teraflops,比B200的45 teraflops提升51% [4] - 与Hopper一代相比,HGX B300 NVL16在大型语言模型推理速度提升11倍,计算能力提升7倍,内存增加4倍 [5] Vera Rubin架构 - 计划2026年下半年发布,包含Vera CPU和Rubin GPU,性能比Grace Blackwell显著提升 [7][9] - Vera CPU采用88个定制ARM内核,NVLink接口带宽1.8 TB/s,比Grace CPU快两倍 [8] - Rubin GPU提供1.2 ExaFLOPS FP8训练性能,是B300的3.3倍,内存带宽从8 TB/s提升至13 TB/s [9][10] - NVL144机架配置提供3.6 exaflops FP4推理能力,是Blackwell Ultra的3.3倍 [11] 硅光技术 - 公司计划在Quantum InfiniBand和Spectrum Ethernet交换机中部署共封装光学器件(CPO) [17] - CPO技术使信号噪声降低5.5倍,功率需求减少3.3倍,可连接GPU数量增加3倍 [25][26] - 首款Quantum-X CPO交换机将于2025年下半年推出,提供144个800Gb/s端口 [27] - Spectrum-X CPO交换机计划2026年下半年推出,最高支持512个800Gb/s端口 [28] 行业动态 - OpenAI计划建设容纳40万个AI芯片的数据中心,Meta计划2024年底拥有60万个H100等效计算能力 [29][30] - 公司股价在发布会后下跌3.4%,反映市场对竞争加剧的担忧 [31] - 谷歌、Meta和亚马逊都在开发自研AI芯片,行业竞争日趋激烈 [30] 未来路线图 - 2027年下半年推出Rubin Ultra,采用NVL576配置,提供15 exaflops FP4推理性能 [12] - 2028年计划推出Feynman架构,进一步推动AI计算性能边界 [13] - 黄仁勋预计数据中心建设投资将很快达到1万亿美元,加速计算成为转折点 [42][43]