新推理芯片
搜索文档
华尔街日报:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
美股IPO· 2026-02-28 16:04
文章核心观点 - 英伟达计划推出整合Groq LPU技术的新型推理芯片,并已为Meta大规模部署纯CPU方案,旨在应对AI行业从训练向推理部署转移的趋势,通过多元化硬件组合巩固其市场地位 [1][3][6][7] GTC大会新品发布与LPU技术整合 - 公司计划在下月GTC开发者大会上发布一款整合Groq“语言处理单元”(LPU)技术的全新推理芯片,首席执行官黄仁勋称其为“世界从未见过”的全新系统 [3] - 该芯片专为加速AI模型的查询响应而设计,预计将重塑当前AI算力市场格局,直接影响云服务提供商和企业级投资者 [3] - 新产品可能基于具备颠覆性的下一代Feynman架构,该架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术深度整合LPU,专门针对延迟和内存带宽两大推理瓶颈进行优化 [1][5] - 公司去年底斥资200亿美元获得了Groq的关键技术许可,并吸纳了包括创始人Jonathan Ross在内的高管团队 [5] 市场认可与客户动向 - OpenAI已同意成为新处理器的最大客户之一,宣布将向英伟达购买大规模的“专用推理产能”,这一举动稳固了公司核心客户盘 [3] - OpenAI的承诺采购与投资总额达300亿美元 [1] - OpenAI同时也在寻求其他供应商,例如与初创公司Cerebras达成了一项价值数十亿美元的计算合作,并与亚马逊签署了使用Trainium芯片的重大协议 [7] 战略调整:纯CPU部署方案 - 公司在引入LPU架构的同时,也在灵活调整其传统处理器的使用方式,本月宣布扩大与Meta Platforms的合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体 [1][6] - 此举表明公司正超越单一的GPU销售模式,试图通过多元化的硬件组合来锁定AI市场的不同细分领域 [6] - 部分大型企业客户发现,在处理某些特定的AI智能体工作负载时,纯CPU环境比将Vera CPU与Rubin GPU捆绑的成本更低且能效更高 [6] 行业背景与竞争态势 - AI行业正从模型训练向实际应用部署转移,推理计算成为核心焦点,大型AI模型的解码过程尤其缓慢 [4] - 许多构建和运营AI智能体的公司发现,传统的GPU成本过于昂贵,且在实际运行模型时并非最佳选择 [7] - 主要云服务商在加紧自研芯片,例如Anthropic Claude Code主要依赖亚马逊AWS和Alphabet旗下谷歌云设计的芯片 [7] - 面对竞争,公司强调正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [7] - 下月的GTC大会将是检验公司能否在推理时代延续其90%市场份额神话的关键节点 [7]
英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
华尔街见闻· 2026-02-28 12:47
文章核心观点 英伟达计划在下月GTC开发者大会上发布一款整合了Groq LPU技术的全新推理芯片,标志着公司正加速向推理计算领域转型,以应对市场对高效能、低成本AI计算方案的需求,并试图在日益激烈的竞争中巩固其市场地位 [1][2][3][7][24] 新产品发布与技术整合 - 英伟达计划在下个月的GTC开发者大会上发布一款全新的、专为加速AI模型查询响应而设计的推理芯片系统,其首席执行官黄仁勋称之为“世界从未见过”的系统 [1][2] - 新产品整合了Groq公司的“语言处理单元”(LPU)技术,旨在解决大模型推理,尤其是解码阶段的瓶颈,以降低能耗与成本 [8][10][11][13][14] - 为获得LPU技术,英伟达在去年底斥资200亿美元获得了Groq的关键技术许可,并吸纳了包括其创始人在内的高管团队 [12] - 即将发布的新品可能涉及下一代Feynman架构,该架构可能采用更广泛的SRAM集成或3D堆叠技术,以优化延迟和内存带宽 [14] 市场影响与客户动态 - 新产品的推出预计将重塑AI算力市场格局,直接影响寻求成本效益替代方案的云服务提供商和企业级投资者 [3] - ChatGPT开发商OpenAI已同意成为该新处理器的最大客户之一,并将向英伟达购买大规模的“专用推理产能”,这稳固了英伟达的核心客户盘 [4] - OpenAI的行动也向市场发出明确信号:支持AI智能体的底层基础设施正从大规模预训练转向高效推理 [5] - 除了OpenAI,英伟达也与Meta Platforms扩大了合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体 [18][19] 公司战略转型与竞争态势 - 英伟达正在突破对传统图形处理器(GPU)的单一依赖,通过引入LPU新架构以及探索纯中央处理器(CPU)的部署模式,提供多元化的硬件组合 [6][7][15][19] - 公司以往将Vera CPU与Rubin GPU捆绑销售,但部分客户发现对于特定AI任务,纯CPU环境更为高效,促使公司调整策略 [16][17] - 市场需求正从训练转向推理,许多公司发现传统GPU成本昂贵且并非运行模型的最佳选择,这推动了底层硬件设计的演进 [20] - 英伟达面临来自谷歌、亚马逊等云服务商自研芯片,以及如Cerebras等初创公司的激烈竞争,例如OpenAI也与Cerebras达成了价值数十亿美元的计算合作,并签署了使用亚马逊Trainium芯片的协议 [20][21][22] - 面对竞争,英伟达正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [23] - 下个月的GTC大会被视为检验英伟达能否在推理时代延续其90%市场份额神话的关键节点 [24]
报道:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
华尔街见闻· 2026-02-28 11:45
文章核心观点 - 英伟达计划在下月GTC开发者大会上发布一款整合了Groq LPU技术的全新推理芯片,标志着公司正加速向推理计算领域转型,以应对市场对高效能、低成本计算方案的需求,并试图在AI产业下一阶段巩固其市场地位 [1][5] 产品与技术发布 - 英伟达计划在GTC大会上发布一款被其首席执行官称为“世界从未见过”的全新系统,专为加速AI模型的查询响应而设计 [1] - 新产品整合了Groq的“语言处理单元”(LPU)技术,该技术采用了与传统GPU截然不同的架构,在处理推理功能时表现出极高的效率 [1][2] - 即将发布的新品可能涉及具备颠覆性的下一代Feynman架构,该架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术将LPU深度整合,专门针对延迟和内存带宽进行优化 [2] 战略转型与市场布局 - 英伟达正在突破对传统图形处理器(GPU)的单一依赖,通过引入LPU新架构以及探索纯中央处理器(CPU)的部署模式来巩固市场地位 [1] - 公司正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [5] - 公司本月宣布扩大与Meta Platforms的合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体,这表明公司正超越单一的GPU销售模式 [3] 客户与市场需求 - ChatGPT开发商OpenAI已同意成为该新处理器的最大客户之一,并宣布将向英伟达购买大规模的“专用推理产能” [1] - 底层硬件设计的演进直接源于科技行业对AI代理应用需求的爆发,许多公司发现传统的GPU成本昂贵且在实际运行模型时并非最佳选择 [4] - OpenAI除了采购英伟达新系统,上个月还与初创公司Cerebras达成了一项价值数十亿美元的计算合作,并签署了使用亚马逊Trainium芯片的重大协议 [4] 行业竞争态势 - 英伟达面临谷歌、亚马逊以及众多初创公司的激烈竞争 [1] - 主要云服务商在加紧自研芯片,例如Anthropic Claude Code主要依赖亚马逊AWS和Alphabet旗下谷歌云设计的芯片,而非英伟达的产品 [5] - Cerebras首席执行官称,其专注于推理的芯片在速度上超越了英伟达的GPU [4] 技术整合与收购 - 英伟达去年底斥资200亿美元获得了初创公司Groq的关键技术许可,并在一场大规模的“核心聘用”交易中吸纳了包括创始人Jonathan Ross在内的高管团队 [2]