文章核心观点 - 英伟达计划推出整合Groq LPU技术的新型推理芯片,并已为Meta大规模部署纯CPU方案,旨在应对AI行业从训练向推理部署转移的趋势,通过多元化硬件组合巩固其市场地位 [1][3][6][7] GTC大会新品发布与LPU技术整合 - 公司计划在下月GTC开发者大会上发布一款整合Groq“语言处理单元”(LPU)技术的全新推理芯片,首席执行官黄仁勋称其为“世界从未见过”的全新系统 [3] - 该芯片专为加速AI模型的查询响应而设计,预计将重塑当前AI算力市场格局,直接影响云服务提供商和企业级投资者 [3] - 新产品可能基于具备颠覆性的下一代Feynman架构,该架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术深度整合LPU,专门针对延迟和内存带宽两大推理瓶颈进行优化 [1][5] - 公司去年底斥资200亿美元获得了Groq的关键技术许可,并吸纳了包括创始人Jonathan Ross在内的高管团队 [5] 市场认可与客户动向 - OpenAI已同意成为新处理器的最大客户之一,宣布将向英伟达购买大规模的“专用推理产能”,这一举动稳固了公司核心客户盘 [3] - OpenAI的承诺采购与投资总额达300亿美元 [1] - OpenAI同时也在寻求其他供应商,例如与初创公司Cerebras达成了一项价值数十亿美元的计算合作,并与亚马逊签署了使用Trainium芯片的重大协议 [7] 战略调整:纯CPU部署方案 - 公司在引入LPU架构的同时,也在灵活调整其传统处理器的使用方式,本月宣布扩大与Meta Platforms的合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体 [1][6] - 此举表明公司正超越单一的GPU销售模式,试图通过多元化的硬件组合来锁定AI市场的不同细分领域 [6] - 部分大型企业客户发现,在处理某些特定的AI智能体工作负载时,纯CPU环境比将Vera CPU与Rubin GPU捆绑的成本更低且能效更高 [6] 行业背景与竞争态势 - AI行业正从模型训练向实际应用部署转移,推理计算成为核心焦点,大型AI模型的解码过程尤其缓慢 [4] - 许多构建和运营AI智能体的公司发现,传统的GPU成本过于昂贵,且在实际运行模型时并非最佳选择 [7] - 主要云服务商在加紧自研芯片,例如Anthropic Claude Code主要依赖亚马逊AWS和Alphabet旗下谷歌云设计的芯片 [7] - 面对竞争,公司强调正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [7] - 下月的GTC大会将是检验公司能否在推理时代延续其90%市场份额神话的关键节点 [7]
华尔街日报:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计