Trainium v2

搜索文档
机构:预计今年八大CSP资本支出将逾4200亿美元, 同比增长61%
证券时报网· 2025-10-13 19:00
全球CSP资本支出预测 - 预计2025年八大CSP(谷歌 AWS Meta 微软 甲骨文 腾讯 阿里巴巴 百度)合计资本支出将突破4200亿美元 约为2023年与2024年资本支出相加的水平 年增幅高达61% [1] - 2026年八大CSP总资本支出有望再创新高 年增达24% 来到5200亿美元以上 [1] - 支出结构已从能直接创造收益的设备转向服务器 GPU等资产 意味着巩固中长期竞争力与市占率优先于改善短期获利 [1] AI服务器整柜式方案需求 - 2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案 需求量成长将优于预期 [2] - 客户除主要来自北美前四大CSP和甲骨文外 特斯拉/xAI Coreweave和Nebius等的需求亦有提升 [2] - 2026年CSP将扩大布局GB300 Rack整柜式方案 并于下半年起逐步转至英伟达Rubin VR200 Rack新方案 [2] CSP自研AI芯片进展 - 北美四大CSP持续深化AI ASIC布局 以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力 [2] - 谷歌与博通合作TPU v7p(Ironwood) 锁定训练应用 预计于2026年逐步放量 将接替TPU v6e (Trillium)的核心AI加速平台 [2] - 谷歌TPU出货量将持续领先 2026年更有望实现逾40%的年增长 [2] - AWS主力部署Trainium v2 将于2025年底推出液冷版本机柜 Trainium v3首款规格预计于2026年第一季量产 [3] - 2025年AWS自研ASIC出货量将大幅成长一倍以上 年度增速为四大业者之最 2026年的年增幅度可望逼近20% [3] - Meta加强与博通合作 预计于2025年第四季量产MTIA v2 提升推理效能与降低延迟 [3] - 2025年MTIA出货主要部署于Meta内部AI平台与推荐系统 待2026年采用HBM的MTIA v3推出 整体出货规模将呈双倍以上成长 [3] - 微软规划由GUC协助量产Maia v2 预计于2026年上半启动 Maia v3因设计调整延后量产时程 短期内微软自研芯片出货量相当有限 [3] 中国云厂商AI资本开支 - 腾讯2025年第二季度资本开支同比增长119%达到191.07亿元人民币 自2024年四季度以来 AI投入带动腾讯资本开支显著增大 最近三个季度累计投入超831亿元人民币 [3] - 阿里巴巴2025年第二季度资本开支达到386亿元人民币 创历史新高 公司曾宣布未来三年投入3800亿元建设云和AI硬件基础设施 [4]
TrendForce:预计2025年八大CSP的总资本支出达4200亿美元 同比增长61%
智通财经· 2025-10-13 13:45
资本支出趋势 - 全球八大云端服务业者(CSP)合计资本支出预计在2025年突破4200亿美元,约为2023年与2024年资本支出相加的水平,年增幅高达61% [1] - 2026年八大CSP的总资本支出有望再创新高,年增达24%,来到5200亿美元以上 [1] - 支出结构已从能直接创造收益的设备,转向服务器、GPU等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利 [1] AI服务器解决方案需求 - 2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案,需求量成长将优于预期 [4] - 客户除主要来自北美前四大CSP和甲骨文外,特斯拉/xAI、Coreweave和Nebius等的需求亦有提升 [4] - 2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案 [4] 自研AI芯片发展 - 北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力 [5] - Google与博通合作TPU v7p,预计于2026年逐步放量,TrendForce预估Google TPU出货量将持续领先,2026年更有望实现逾40%的年增长 [5][6] - AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,Trainium v3预计于2026年第一季量产,估计2025年AWS自研ASIC出货量将大幅成长一倍以上,2026年的年增幅度可望逼近20% [6] - Meta加强与博通合作,预计于2025年第四季量产MTIA v2,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长 [6] - Microsoft规划由GUC协助量产Maia v2,预计于2026年上半启动,但Maia v3因设计调整延后量产时程,短期内Microsoft自研芯片出货量相当有限 [6]
研报 | 2026年CSP资本支出预计将高达5,200亿美元,GPU采购与ASIC研发成创新高核心驱动力
TrendForce集邦· 2025-10-13 12:08
全球大型云端服务业者资本支出趋势 - 2025年八大CSP(谷歌、AWS、Meta、微软、甲骨文、腾讯、阿里巴巴、百度)合计资本支出预计突破4200亿美元,约为2023年与2024年资本支出相加的水平,年增幅高达61% [2] - 2026年八大CSP总资本支出有望再创新高,年增达24%,来到5200亿美元以上 [2] - 资本支出结构已从能直接创造收益的设备转向服务器、GPU等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利 [2] AI服务器整柜式解决方案需求 - 2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案,需求量成长将优于预期 [5] - 客户除主要来自北美前四大CSP和甲骨文外,特斯拉/xAI、Coreweave和Nebius等的需求亦有提升 [5] - 2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案 [5] CSP自研AI芯片发展动态 - 北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力 [6] - 谷歌与博通合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e(Trillium)的核心AI加速平台 [6] - 谷歌TPU出货量将持续领先,2026年更有望实现逾40%的年增长 [6] - AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,Trainium v3首款规格预计于2026年第一季量产 [7] - 2025年AWS自研ASIC出货量将大幅成长一倍以上,年度增速为四大业者之最,2026年的年增幅度可望逼近20% [7] - Meta加强与博通合作,预计于2025年第四季量产MTIA v2,提升推理效能与降低延迟 [7] - 2025年MTIA出货主要部署于Meta内部AI平台与推荐系统,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长 [7] - 微软规划由GUC协助量产Maia v2,预计于2026年上半启动,Maia v3因设计调整延后量产时程,短期内微软自研芯片出货量相当有限,进度较落后竞争对手 [7]
研报 | 受国际形势变化影响,2025年AI服务器出货年增幅度略减
TrendForce集邦· 2025-07-02 14:03
AI服务器市场需求 - 北美大型CSP是AI服务器市场需求扩张主力,tier-2数据中心和中东、欧洲主权云项目助力需求稳健 [1] - 2025年AI服务器出货量预计维持双位数增长,但2024年全球出货量增速微幅下修至24.3% [1] - 2025年整体服务器(含通用型和AI服务器)出货量预计年增5%,与先前评估一致 [4] 北美五大CSP动态 Microsoft - 2024年投资重点仍为AI领域,通用型服务器采购量受抑制 [1] - AI服务器主要采用NVIDIA GPU方案,自研ASIC Maia预计2026年新方案才明显放量 [1] Meta - 新数据中心落成推动通用型服务器需求显著增加,多数采用AMD平台 [1] - 积极布局AI服务器基础设施,自研MTIA芯片2026年出货量有望翻倍增长 [1] Google - 主权云项目和东南亚新数据中心推动服务器需求提升 [2] - 自研芯片布局比例较高,AI推理用TPU v6e已于2024年上半年逐步放量成为主流 [2] AWS - 自研芯片以Trainium v2为主力平台,已启动Trainium v3开发,预计2026年量产 [2] - 2025年自研ASIC出货量预计实现双倍增长,为美系CSP中最强 [2] Oracle - 侧重采购AI服务器和IMDB服务器,2024年更积极布局AI服务器基础设施 [3] - 整合云端数据库及AI应用,对美国主权云项目中NVIDIA GB Rack NVL72需求明显提升 [3] 行业技术趋势 - 北美CSP普遍加速自研ASIC布局,Google TPU v6e、AWS Trainium v2/v3、Meta MTIA等方案成为重点 [1][2] - 国际形势变化促使Server Enterprise OEM重新评估2025年下半年市场规划 [4]
研报 | AI芯片自主化进程加速,云端巨头竞相自研ASIC
TrendForce集邦· 2025-05-15 15:15
AI服务器芯片市场趋势 - 北美四大CSP加速自研ASIC芯片以应对AI工作负载扩大和降低对NVIDIA、AMD的依赖,平均1~2年推出升级版本 [1] - 中国AI服务器市场外购NVIDIA、AMD芯片比例预计从2024年63%降至2025年42%,本土芯片供应商(如华为)占比将提升至40% [1] - CSP自研ASIC旨在控制成本、优化性能并增强供应链弹性,改善营运成本支出 [1] 美系四大CSP的AI ASIC进展 - Google推出TPU v6 Trillium,主打能效比和AI大型模型优化,2025年将大幅取代TPU v5,新增联发科合作形成双供应链布局 [2] - AWS以Trainium v2为主力,支持生成式AI与大型语言模型训练,2025年ASIC出货量预计大幅增长,年增表现最强 [2] - Meta与Broadcom合作开发MTIA v2,聚焦能效最佳化与低延迟架构以满足AI推理需求 [3] - Microsoft加速ASIC开发,Maia系列芯片针对Azure生成式AI应用优化,下一代Maia v2已定案并与Marvell合作开发进阶版 [3] 中国AI供应链自主化进展 - 华为昇腾芯片系列面向内需市场,应用涵盖LLM训练、智慧城市及电信云网AI,长期可能撼动NVIDIA在中国市场的地位 [4] - 寒武纪思元(MLU)AI芯片系列瞄准云端AI训练与推理,2025年将逐步推进至云端AI市场 [4] - 阿里巴巴平头哥推出Hanguang 800 AI推理芯片,百度开发Kunlun III支持高效能训练与推理,腾讯采用自研Zixiao及燧原科技解决方案 [5] 行业生态体系发展 - 国际形势与供应链重构推动中国芯片供应商及CSP加速自研ASIC,带动AI服务器市场向多生态体系发展 [5]