Workflow
VR200 Rack
icon
搜索文档
TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求
智通财经网· 2026-03-18 21:08
行业竞争格局与趋势 - 大型云端服务供应商正加大自研芯片力度,预计ASIC AI服务器占整体AI服务器的出货比例将从2026年的27.8%上升至2030年的近40% [1] - 英伟达为应对竞争,其市场策略从以往专注云端AI训练,转向着重推动各领域的AI推理应用落地 [1] 英伟达产品战略与布局 - 公司通过推动GPU、CPU以及LPU等多元产品线,分别满足AI训练和AI推理需求,并借由整柜式方案带动供应链成长 [1] - 公司积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用 [4] - 在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜 [4] 关键产品出货与供应链进度 - 预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片 [4] - GB300整柜系统已于2025年第四季取代GB200成为主力,预估至2026年其出货占比将达近80% [4] - VR200整柜系统则约在2026年第三季度末可望逐步释放出货量能 [4] - 第三代Groq LP30 LPU芯片由三星代工,已进入全面量产阶段,预计于2026年下半年正式出货 [5] 技术创新与架构演进 - 为应对AI代理模型时代在译码阶段面临的延迟与存储器带宽瓶颈,公司整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB [4] - 由于LPU存储器容量限制,公司提出“解耦合推理”架构,通过Dynamo AI工厂作业系统,将推理流水线拆分:将Pre-fill、Attention运算交由Vera Rubin执行,而将译码与Token生成阶段卸载至LPU机柜 [5] - 公司规划在下一代Feynman架构中推出效能更高的LP40芯片 [5]
研报 | 预计2026年CSP合计资本支出增至6,000亿美元以上,AI硬件生态链迎新成长周期
TrendForce集邦· 2025-11-06 14:36
全球主要云端服务提供商资本支出预测 - TrendForce集邦咨询将2025年全球八大主要CSPs资本支出总额年增率从61%上修至65% [2] - 预期2026年CSPs合计资本支出将推升至6000亿美元以上,年增率达40% [2] - 八大CSPs包含美系的Google、AWS、Meta、Microsoft、Oracle以及中系的Tencent、Alibaba、Baidu [4] 主要CSPs资本支出调整详情 - Google上调2025年资本支出至910-930亿美元,以应对AI数据中心与云端运算需求激增 [4] - Meta上修2025年资本支出至700-720亿美元,并指出2026年还将显著成长 [4] - Amazon调升2025年资本支出预估至1250亿美元 [5] - Microsoft预期2026财年资本支出将高于2025年 [5] - Meta计划2026年资本支出大幅增加65%,达到1180亿美元 [6] 资本支出增长对AI硬件生态链的影响 - 资本支出成长将激励AI Server需求全面升温,并带动GPU/ASIC、存储器、封装材料等上游供应链扩张 [5] - 液冷散热模块、电源供应及ODM组装等下游系统也将同步扩张 [5] - 驱动AI硬件生态链迈入新一轮结构性成长周期 [5] 整柜式AI方案的市场展望 - 2026年市场将更积极导入整柜式AI方案,NVIDIA的GB300和VR200合计出货量有望优于先前预期 [5] - Oracle将受惠于北美政府项目、云端AI数据库租赁服务等需求,成长力道最大 [5] - AMD也将推动Helios整柜式方案,包含Venice CPU和MI400 GPU,Meta、Oracle将成为首批导入业者 [6] - Meta同时将布局NVIDIA GB/VR Rack及自研ASIC方案 [6]