行业竞争格局与趋势 - 大型云端服务供应商正加大自研芯片力度,预计ASIC AI服务器占整体AI服务器的出货比例将从2026年的27.8%上升至2030年的近40% [1] - 英伟达为应对竞争,其市场策略从以往专注云端AI训练,转向着重推动各领域的AI推理应用落地 [1] 英伟达产品战略与布局 - 公司通过推动GPU、CPU以及LPU等多元产品线,分别满足AI训练和AI推理需求,并借由整柜式方案带动供应链成长 [1] - 公司积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用 [4] - 在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜 [4] 关键产品出货与供应链进度 - 预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片 [4] - GB300整柜系统已于2025年第四季取代GB200成为主力,预估至2026年其出货占比将达近80% [4] - VR200整柜系统则约在2026年第三季度末可望逐步释放出货量能 [4] - 第三代Groq LP30 LPU芯片由三星代工,已进入全面量产阶段,预计于2026年下半年正式出货 [5] 技术创新与架构演进 - 为应对AI代理模型时代在译码阶段面临的延迟与存储器带宽瓶颈,公司整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB [4] - 由于LPU存储器容量限制,公司提出“解耦合推理”架构,通过Dynamo AI工厂作业系统,将推理流水线拆分:将Pre-fill、Attention运算交由Vera Rubin执行,而将译码与Token生成阶段卸载至LPU机柜 [5] - 公司规划在下一代Feynman架构中推出效能更高的LP40芯片 [5]
TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求