Workflow
Rubin Ultra GPU
icon
搜索文档
台积电下一代技术或延期!
国芯网· 2025-07-16 22:31
台积电CoPoS封装技术延期 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要由于技术不成熟,包括面板与晶圆差异处理、更大面积翘曲控制及更多重分布层(RDL)等挑战 [1] - 该技术旨在通过更大面板尺寸(310x310mm)提升面积利用率,支持英伟达等客户的AI GPU需求 [1] 英伟达潜在技术路线调整 - 技术延期可能促使英伟达在2027年计划推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,以规避单一模块封装限制 [1] 台积电资本支出与技术布局 - 台积电可能将2026年芯片后段资本支出转向其他技术如WMCM和SoIC,以应对CoPoS延期 [1] - CoWoS产能分配成为AI产业链关键监测点 [1] 行业影响 - 野村产业调研显示台积电CoPoS技术发展进度明显放缓,原计划2027年量产推迟至2029年下半年 [1]
台积电关键技术,或延期
半导体芯闻· 2025-07-16 18:44
台积电CoPoS技术延期影响 - 台积电CoPoS封装技术量产时间可能从原计划的2027年推迟至2029-2030年,主要因技术不成熟,包括面板与晶圆差异处理、大面积翘曲控制及多重分布层(RDL)等挑战 [2][3][4] - 该技术旨在通过更大面板尺寸(如310x310mm)提升面积利用率,支持AI GPU需求,但进度明显放缓 [4] 英伟达产品路线调整 - CoPoS延期可能迫使英伟达在2027年推出的Rubin Ultra GPU转向多芯片模块(MCM)架构,类似亚马逊Trainium 2设计,通过基板连接分散的GPU模块 [2][3][5] - 原计划需8个CoWoS-L互连器整合芯片堆栈,现可能改为两个模块各含4个GPU [5] - 架构调整或增加设计复杂性和成本,但可规避技术延误风险 [6] 台积电资本支出与技术布局 - 台积电CoWoS产能预计2025年底达7万片/月,2026年底达9-10万片/月,后续增长或依赖效率提升而非设备采购 [7] - CoPoS延期或促使2026年后段资本支出(占总量10%)转向晶圆级多芯片模块(WMCM)和系统集成芯片(SoIC)技术 [7] - 市场对WMCM预期可能过度乐观,而SoIC预期较保守 [8] 设备供应商潜在影响 - CoPoS相关设备供应商(如至圣工业、天虹科技、友威科技)可能因技术延期推迟需求,但仍有望受益于长期投资 [8]
台积电下一代芯片技术进度或慢于预期,这对AI芯片产业链意味着什么?
华尔街见闻· 2025-07-16 11:26
但野村的产业调研显示,台积电的芯片级面板基板封装技术(CoPoS)发展进度明显放缓。原本计划在2027年实现量产的时间表可能推迟至2029年下半 年。 这一延期主要源于技术不成熟,特别是在处理面板与晶圆差异、更大面积的翘曲控制以及更多重分布层(RDL)等关键技术挑战方面。 台积电CoPoS量产或推迟至2029年,可能迫使英伟达调整芯片设计策略,转向替代架构。 据追风交易台消息,野村证券最新研究显示,由于技术挫折,台积电的CoPoS封装技术的量产时间可能从原计划的2027年推迟至2029-2030年。 报告称,这一延迟可能促使英伟达在其2027年计划推出的Rubin Ultra GPU上采用多芯片模块(MCM)架构,类似于亚马逊的Trainium 2设计,以规避单 一模块封装的限制。 对AI产业链来说,野村分析称,台积电可能将2026年芯片后段资本支出转向其他技术如WMCM和SoIC,同时CoWoS产能分配将成为关键监测点。 CoPoS技术面临重大延期,英伟达被迫调整产品路线图 据报告介绍,CoPoS(chip-on-panel-on-substrate)技术旨在通过更大的面板尺寸(如310x310mm)提升面 ...
英伟达,主宰800V时代
半导体芯闻· 2025-07-11 18:29
Nvidia主导AI数据中心电力架构革新 - Nvidia虽不设计功率器件,但正在定义下一代AI数据中心的动力总成架构,推动800V高压直流(HVDC)技术转型[1] - 合作伙伴包括英飞凌、MPS、Navitas等半导体厂商,以及台达、施耐德电气等电力系统供应商[1] - 计划2027年推出Rubin Ultra GPU和Vera CPU,淘汰54V机架配电技术以应对千瓦级功率需求[4] 宽带隙半导体技术竞争格局 - 英飞凌被Yole评为电力电子领导者,覆盖SiC、GaN及半导体继电器全技术栈[9][12] - Navitas通过收购GeneSiC强化SiC能力,同时利用GaN技术开发48V至处理器供电方案[13] - Yole预测GaN增速将超SiC,SiC市场约1亿美元而GaN机会更大[16] 800V HVDC技术挑战与创新 - 需开发800V转12V/50V高密度转换器,GaN因高频特性适合中压转换,SiC主导高压环节[6][8] - 新型半导体继电器需求涌现,需解决过流保护问题替代传统机械开关[9] - 固态变压器技术可能重塑电网架构,Navitas布局超高压SiC相关应用[14] 行业生态与标准化进程 - Nvidia的激进路线可能使开放计算项目(OCP)标准过时,导致数据中心兼容性分化[15] - 超大规模企业如谷歌/Meta的应对策略未明,电力电子供应商或需服务多套技术路线[15][16]
下一代GPU发布,硅光隆重登场,英伟达还能火多久?
半导体行业观察· 2025-03-19 08:54
核心观点 - 英伟达在GTC大会上发布了新一代GPU路线图,包括Blackwell Ultra、Vera Rubin和Feynman架构,展示了其在AI计算领域的持续创新 [2][7][13] - 公司预计2028年数据中心资本支出规模将突破1万亿美元,美国四大云端龙头已订购360万个Blackwell芯片 [1] - 黄仁勋强调AI计算正经历根本性变革,从文件检索转向Token生成,数据中心建设向加速计算发展 [43][44] Blackwell Ultra平台 - Blackwell Ultra提供288GB HBM3e内存,比原版Blackwell的192GB提升50% [3] - FP4计算能力比H100提升1.5倍,NVL72集群运行DeepSeek-R1 671B模型仅需10秒,而H100需要1.5分钟 [4] - 单个Ultra芯片提供20 petaflops AI性能,DGX GB300 Superpod集群拥有300TB内存和11.5 exaflops FP4计算能力 [3] - 适用于代理式AI和物理AI应用,可自主解决复杂多步骤问题和实时生成合成视频 [6] 性能对比 - B300在FP4 Tensor Dense/Sparse性能达15/30 petaflops,比B200的10/20 petaflops提升50% [4] - FP64 Tensor Dense性能达68 teraflops,比B200的45 teraflops提升51% [4] - 与Hopper一代相比,HGX B300 NVL16在大型语言模型推理速度提升11倍,计算能力提升7倍,内存增加4倍 [5] Vera Rubin架构 - 计划2026年下半年发布,包含Vera CPU和Rubin GPU,性能比Grace Blackwell显著提升 [7][9] - Vera CPU采用88个定制ARM内核,NVLink接口带宽1.8 TB/s,比Grace CPU快两倍 [8] - Rubin GPU提供1.2 ExaFLOPS FP8训练性能,是B300的3.3倍,内存带宽从8 TB/s提升至13 TB/s [9][10] - NVL144机架配置提供3.6 exaflops FP4推理能力,是Blackwell Ultra的3.3倍 [11] 硅光技术 - 公司计划在Quantum InfiniBand和Spectrum Ethernet交换机中部署共封装光学器件(CPO) [17] - CPO技术使信号噪声降低5.5倍,功率需求减少3.3倍,可连接GPU数量增加3倍 [25][26] - 首款Quantum-X CPO交换机将于2025年下半年推出,提供144个800Gb/s端口 [27] - Spectrum-X CPO交换机计划2026年下半年推出,最高支持512个800Gb/s端口 [28] 行业动态 - OpenAI计划建设容纳40万个AI芯片的数据中心,Meta计划2024年底拥有60万个H100等效计算能力 [29][30] - 公司股价在发布会后下跌3.4%,反映市场对竞争加剧的担忧 [31] - 谷歌、Meta和亚马逊都在开发自研AI芯片,行业竞争日趋激烈 [30] 未来路线图 - 2027年下半年推出Rubin Ultra,采用NVL576配置,提供15 exaflops FP4推理性能 [12] - 2028年计划推出Feynman架构,进一步推动AI计算性能边界 [13] - 黄仁勋预计数据中心建设投资将很快达到1万亿美元,加速计算成为转折点 [42][43]