「AI新世代」从GPU到LPU:英伟达大举进攻推理芯片,黄仁勋再落关键一子

文章核心观点 - AI产业重心正从模型训练转向模型推理,英伟达通过推出Groq 3 LPU专用推理芯片及Vera Rubin平台,战略性布局并大举进攻推理芯片市场,以巩固其AI基础设施领导地位 [1][3][6] 产品发布与性能 - 英伟达在GTC 2026上正式推出Vera Rubin平台,该平台共搭载7款芯片,包括Rubin GPU、Vera CPU及新集成的Groq 3 LPU [2] - Groq 3 LPU是一款专用的AI推理加速芯片,全称为“语言处理单元”,结合Rubin GPU,可将AI模型推理的吞吐量从每秒100个token提升至每秒1500个token甚至更多 [2] - 公司同时推出了专用于容纳Groq加速器的完整机架Groq LPX,旨在提升每个令牌上AI模型每一层的解码性能,以服务于需要处理数万亿参数模型和百万级token上下文窗口的多智能体系统 [2] 市场战略与布局 - 英伟达对推理市场的布局早有准备,于2025年12月以约200亿美元的价格收购了Groq的核心技术资产,Groq 3 LPU是收购后的首个公开成果 [3] - 推出LPU是应对AI算力需求从“训练”转向“推理”的战略性布局,旨在用更精细化的产品回应市场变化和竞争挑战 [3] - 公司预测,到2027年底,其Blackwell和Rubin两条产品线的年收入将达到1万亿美元,这比半年前的预测翻了一倍 [1] 行业趋势与需求变化 - AI产业风向已变,智能体的普及推动市场需求从模型训练转向模型推理,因为智能体的核心场景更侧重于推理 [1][6] - 据高盛模型预测,在AI服务器的AI芯片中,非GPGPU芯片(如ASIC)的出货占比将从2024年的36%增长至2027年的45%,而GPGPU芯片的占比将从64%下降至55% [3] - 分析师指出,GPU在基座大模型训练、公有云等通用性要求高的场景更有竞争力,而ASIC在模型部署和推理场景下,因对能效比和延迟要求更高而更具优势 [3] 生态系统升级 - 英伟达的布局不仅是芯片,更是整个生态层面的升级,公司推出了Vera Rubin DSX AI工厂参考设计,指导如何设计、建设和运营整个AI工厂基础设施堆栈 [7] - 公司联合OpenClaw创始人等团队推出了NeMoClaw参考架构,内置安全技术,旨在让企业在私有环境中安全运行智能体系统 [6] - 黄仁勋表示,在AI时代,智能token是新的货币,而AI工厂是生成这些token的基础设施 [7] 竞争格局与行业影响 - 在ASIC推理芯片市场,英伟达已面临一批竞争对手,包括国外的Cerebras以及中国的寒武纪、华为、燧原科技等 [8] - 专家认为,英伟达进军推理芯片领域,对国内厂商而言既是挑战也是催化剂,将加速行业洗牌和技术升级 [8] - 短期内GPU凭借场景适应性和生态壁垒仍将主导市场(尤其在训练场景),长远看GPU与专用芯片将走向融合与市场分层 [8] 市场反馈与客户 - 英伟达应对推理需求的计划已带来回报,OpenAI上月已与英伟达达成协议,将采购具有“专用推理能力”的芯片 [4]