Workflow
LPU(语言处理单元)
icon
搜索文档
大手笔背后的焦虑,英伟达用200亿美元购买Groq技术授权
搜狐财经· 2026-01-01 18:19
交易核心概览 - 英伟达在2025年圣诞前夜宣布一项价值200亿美元的重大交易,以获取AI芯片初创公司Groq的技术授权,并招募其包括首席执行官在内的核心高管团队 [1] - 该交易是英伟达历史上规模最大的一笔,金额几乎相当于其过去所有并购案的总和 [1] - 交易模式并非完全收购,而是非排他性技术授权结合人才挖角,旨在规避潜在的反垄断审查 [3][4][6] 交易结构与战略意图 - 交易设计为“技术授权”而非直接收购,是规避监管审查的巧招,因英伟达市值已接近3.5万亿美元,其大动作受到监管机构密切关注 [3][4] - 200亿美元不仅购买了技术,还获得了整个团队的经验和专利,特别是Groq的创始人,他是谷歌TPU的创始人之一,在AI芯片架构方面拥有顶尖专业知识 [6][8] - 此举使英伟达既获得了核心技术,又网罗了顶尖人才,同时规避了直接收购可能带来的监管风险 [8] Groq的核心技术价值 - Groq的核心产品是LPU(语言处理单元),这是一种专为AI推理设计的芯片,与英伟达的GPU有本质不同 [9] - LPU针对大语言模型实时推理采用确定性架构,将计算和数据流动设计为确定性流水线,大幅减少了内存调用次数,从而实现了极低的延迟 [15][17] - 业内测试显示,在生成式AI任务中,LPU的延迟可低至每token几十微秒级别,在聊天机器人、实时翻译等需要快速响应的场景中具有关键速度优势 [17] - Groq宣称其LPU在推理速度上比英伟达的H100更快,且成本更低 [11] 行业竞争格局与英伟达的挑战 - AI芯片市场正从一家独大转向群雄逐鹿,英伟达在训练市场近乎垄断,但推理市场的竞争正在加剧 [11][27] - 竞争对手包括谷歌的TPU、亚马逊的Trainium、AMD的Instinct,它们都在积极争夺推理市场份额 [19] - 苹果、Anthropic等科技巨头已开始使用谷歌TPU训练模型,Meta也计划在2027年部署谷歌TPU,这直接绕过了英伟达的芯片 [20] - 在推理端,由于任务相对标准化,对英伟达CUDA软件生态的依赖较弱,这为其他厂商培养独立开发者社区、绕过CUDA护城河提供了机会 [20][22] 交易对英伟达的战略意义 - 此次交易被视为英伟达为应对竞争而购买的“保险”,旨在补齐其在AI推理端的短板,获得不落后的技术,并争取继续领先的时间窗口 [22][24] - Groq的LPU技术可整合进英伟达现有产品线,并借助英伟达强大的分销渠道和生态,加速其全球市场覆盖 [25] - 对于中小型AI公司而言,英伟达与Groq的组合可能成为最优选择,有助于将开发者的采购需求重新吸引回英伟达平台 [25][27] - 200亿美元的巨额交易额也反映出英伟达在日益激烈的竞争环境中的焦虑,面对谷歌TPU的早期布局、亚马逊新芯片的逼近以及AMD的快速追赶,收编潜在威胁对手成为其战略选择 [27][29] - 这笔交易标志着AI芯片行业竞争加剧,未来推理市场将成为主战场,技术创新与生态协同将是制胜关键 [29]
英伟达为何斥资200亿美元收购Groq
半导体行业观察· 2026-01-01 09:26
公众号记得加星标⭐️,第一时间看推送不会错过。 今年夏天,人工智能芯片初创公司Groq融资7.5亿美元,估值达69亿美元。仅仅三个月后,英伟达就在假 期期间斥资近三倍于此,用于授权其技术并挖走其人才。 接下来的几天里,网络上的人工智能专家们纷纷猜测,英伟达如何才能证明花费 200 亿美元收购 Groq 的 技术和人才是合理的。 专家们认为英伟达掌握着我们所不知道的信息。各种猜测层出不穷,从英伟达打算放弃HBM转而使用 SRAM,到为了从三星获得更多代工产能,再到试图扼杀潜在竞争对手,不一而足。有些猜测比其他猜测 更有说服力,我们自己也有一些看法。 我们目前所了解的情况 英伟达支付了200 亿美元,获得了 Groq 的知识产权的非独家授权,其中包括其语言处理单元 (LPU) 和配 套软件库。 Groq 的 LPU 是其高性能推理即服务产品的基础,交易完成后,Groq 将保留该产品并继续不间断地运营。 这项安排显然是为了规避监管审查而设计的。英伟达并非收购Groq,而是获得其技术授权。但实际上…… 它确实是收购了Groq。 很遗憾地告诉你,SRAM 并没有什么特别之处。它几乎存在于所有现代处理器中,包括英伟达的芯 ...
英伟达豪掷200亿美元“收编”最强对手,华尔街:目标价看涨至300美元
美股IPO· 2025-12-27 11:11
交易概况 - 英伟达与AI推理芯片公司Groq签署非独家许可协议 授权使用其推理技术 交易金额约200亿美元 可视为对Groq相关资产及人才的并购 [3][4] - 根据协议 Groq创始人乔纳森·罗斯 总裁桑尼·马德拉及其他团队成员将加入英伟达 以推动并扩大该授权技术的落地 [3] 分析师观点与交易意义 - Cantor机构认为此次收购兼具“进攻性”与“防御性”双重战略意义 重申英伟达为“首选股” 维持“增持”评级及300美元目标价 [1][4] - 进攻端 英伟达一直在与Groq合作进行特定推理加速 认为让Groq成为内部团队更为有利 并强调了强劲的人才引入 包括Groq首席执行官(谷歌TPU核心开发者之一)[4][5] - 防御端 Groq的低延迟 高能效推理技术被纳入英伟达完整系统栈 将帮助其扩大在推理市场的份额 尤其是在机器人 自动驾驶等实时工作负载领域 此举强化了公司的全栈系统能力及AI市场领导地位 [5] - 美银证券认为交易令人意外且代价高昂 但具备战略价值 维持“买入”评级及275美元目标价 [1][6][7] - 美银指出 交易涉及与GPU不同的硬件(语言处理单元LPU) 显示英伟达意识到推理需求爆发可能需要更专用化的芯片 [8] - 美银认为 不同硬件将增加未来产品路线图与定价的复杂度 但英伟达可借此为客户提供更多选择 并在概念上化解来自Groq及其他专用ASIC芯片的竞争威胁 [9] - 美银长期看好 认为其战略意义或可媲美2020年对Mellanox的收购 [10] Groq公司背景与技术 - Groq是专攻AI推理芯片的明星初创公司 成立于2016年 总部位于美国加利福尼亚 [10] - 创始人乔纳森·罗斯是谷歌第一代张量处理单元(TPU)项目的核心研发人员 2016年带领谷歌TPU团队10名核心成员中的7位一同离职创立Groq [10] - 2024年2月 Groq推出全新AI芯片 声称在运行大模型的推理速度上较英伟达GPU提高10倍甚至更高 [11] - Groq的核心产品是LPU(语言处理单元) 主要用于加快大语言模型的推理速度 被视为英伟达GPU替代方案之一 [11] - Groq已与Meta合作为其Llama API提供推理加速 与IBM合作整合其AI推理平台 并与沙特阿美签署巨额协议计划建设大型AI推理数据中心 [11] - 2025年11月 英伟达和Groq均位列加入美国“创世纪计划”的24家顶尖人工智能企业名单 [11]
黄仁勋200亿美金接盘Groq,中东王爷和特朗普都笑了
36氪· 2025-12-26 16:48
交易核心内容 - NVIDIA与Groq达成一项价值200亿美元的非独占技术授权协议,而非法律意义上的收购 [2] - NVIDIA将获得Groq的硬件与架构设计许可,并收购其全部实体资产,但不包括知识产权 [2] - Groq的CEO Jonathan Ross及几乎所有核心成员将加入NVIDIA [2] - Groq公司将继续作为独立实体存在,保留核心知识产权并继续运营 [2] Groq公司背景与产品技术 - Groq成立于2016年,核心产品为LPU(语言处理单元),采用144路超长指令架构设计,由GlobalFoundries代工 [5] - 公司累计融资18亿美元,包括2024年6.4亿美元D轮和2025年7.5亿美元E轮,估值达69亿美元 [5] - 2025年2月,公司获得沙特15亿美元承诺资金,当时已有1.9万颗芯片部署在沙特 [5] - 芯片最大特点是仅使用片上SRAM,无外接DDR或HBM,带来极快访问速度,但每颗芯片仅230MB存储容量 [6] - 该设计在单用户推理场景下性能出色,Token生成速度达到市场最快一档,主打高推理速度卖点 [7] - 架构优势包括极低且可预测的推理延迟、极高的理论能效上限以及确定的系统行为 [9][10] - 架构劣势在于优势发挥的前提苛刻,需要计算完美填满144个并行执行块,对软件编译器依赖极强 [10] 技术架构深度分析 - Groq芯片本质是基于超长指令架构的强软件架构,硬件简单但将编译和调度负担完全压在了软件栈上 [11][14] - 与GPU的强硬件架构(内置复杂调度器)相比,VLIW架构的AI芯片泛化能力严重依赖编译器,难以支持快速迭代的多样化AI模型 [12][15] - 采用宽VLIW架构的AI芯片创业公司常面临产品周期困境:硬件理论优势明显,但落地时因编译器难题无法达到预期性能,最终多寻求被并购套现 [19] - Groq公司人员流动显著,包括首席架构师Dennis Abts在内的多位核心成员已加入NVIDIA、Google、Amazon等公司 [20][22][23][24] 交易动机与行业背景解读 - 交易对价200亿美元金额巨大,相当于全球顶尖晶圆代工厂格芯的全部股份或四分之一Intel的市值 [3] - 分析认为,基于超长指令架构的授权本身不值200亿美元,交易背后的战略意义远超其技术价值 [3] - NVIDIA可能意图通过此高对价资本动作进行战略博弈,以换取核心产品在全球市场的出口豁免权与联邦监管红利,维持其市场垄断地位 [3] - 交易时间线与美国政策变化紧密相关:2025年11月美国批准向沙特出口先进AI芯片;12月特朗普政府放宽对华出口限制并签署AI治理行政命令;随后于12月24日宣布此交易 [28][30][32] - 交易可能有助于NVIDIA进一步向中东盟友(如沙特)示好,巩固在该地区的业务布局 [27][28] - 近期行业出现多起AI芯片公司整合案例,如AMD收购Untether AI团队,Intel拟收购SambaNova,显示资本为AI芯片创业企业“救场”的趋势 [32]
英伟达重金收编潜在挑战者
北京商报· 2025-12-25 22:41
非典型性收购 "这不是一次对公司整体的收购。"Jonathan Ross表示。 据悉,Groq是专攻AI推理芯片的明星初创公司,成立于2016年,总部位于美国加利福尼亚,创始人Jonathan Ross曾是谷歌自研AI芯片TPU(张量处理单元) 项目的核心研发成员,深度参与了专为AI优化的芯片设计。这个项目后来被用于击败围棋冠军李世石的AlphaGo比赛,也是Google AI服务的关键硬件。2016 年,他带领谷歌TPU团队10名核心成员中的7位一同离职,创立了Groq。当时他发现,传统计算架构(如CPU/GPU)无法高效处理现代AI任务,这一认知促 使他决定创办一家突破传统限制的公司。 2024年2月,Groq推出了一款全新的AI芯片,声称实现了"地表最强推理"——在Groq上运行大模型的推理速度较英伟达GPU提高10倍甚至更高。 当地时间周三(12月24日),被视作英伟达"挑战者"的Groq在官网宣布,与英伟达达成一项 "非独家授权协议"。英伟达支付约200亿美元现金,获得Groq的 核心AI推理技术知识产权和相关资产,而Groq的云服务业务(Groq Cloud)将继续独立运营。此外,Groq创始人兼 ...
AI芯片独角兽一年估值翻番,放话“三年超英伟达”,最新融资53亿超预期
36氪· 2025-09-18 16:15
融资情况 - 公司完成7.5亿美元(约53亿人民币)融资,超出最初6亿美元预期目标[1][4] - 公司估值达到69亿美元(约490亿人民币),一年内估值从28亿美元(约199亿人民币)增长超过一倍[1][4][5][6] - 融资由Disruptive领投,贝莱德、路博迈、德国电信资本合伙公司进行重大投资,三星电子、思科系统等现有投资者参与[6] - 公司累计融资总额超过30亿美元(约213亿人民币)[6] 资金用途与业务扩张 - 融资将用于扩大数据中心容量,包括今年和明年的新选址计划[7] - 公司计划在今年宣布首个亚太地区数据中心选址[7] - 客户需求超出当前容量供给,存在未满足的高容量需求[8] 技术优势与产品特性 - 公司专注于AI推理芯片领域,自创全球首个LPU(语言处理单元)方案,硬件称为"推理引擎"[12] - 芯片推理速度较英伟达GPU提高10倍,成本降低至十分之一,测试速度达每秒478 Tokens[14] - 解决方案支持主流开源模型,包括Meta Llama系列、DeepSeek、通义千问、Mistral、谷歌Gemini及OpenAI模型[12] - 产品提供云端服务与本地部署两种模式,本地硬件采用服务器机架式集成设计[12] 团队背景与行业定位 - 创始团队包含谷歌TPU原班人马,CEO乔纳森·罗斯曾完成第一代TPU芯片20%的研发工作[9][10] - 领导层成员具备谷歌、英特尔等知名企业任职经历[9] - 公司定位为英伟达挑战者,目标三年内超越英伟达[12] 行业竞争与市场定位 - 公司致力于打破英伟达在AI芯片制造行业的垄断地位[12] - 创始人强调推理定义了AI当前时代,公司聚焦高速低成本推理基础设施构建[3]
LPU推理引擎获资金认可! 正面硬刚英伟达的Groq估值猛增 一年内几乎翻倍
智通财经· 2025-09-18 12:07
融资与估值 - 公司近期完成新一轮融资,筹集75亿美元,融资后估值约为690亿美元 [1] - 最新融资额高于7月传闻的60亿美元,估值也高于当时传闻的近600亿美元 [1] - 公司在2024年8月曾以280亿美元估值融资64亿美元,最新估值在一年内翻了两倍多 [1] - 公司今年迄今累计融资规模已超过300亿美元,堪比Anthropic等AI超级独角兽 [1] 技术与产品定位 - 公司专注于开发LPU(语言处理单元),这是一种为AI大模型推理场景定制的AI ASIC,而非通用GPU [1][2] - 产品形态包括GroqCard、GroqNode和GroqRack,被明确归类为定制推理ASIC [1] - 产品可作为云计算算力服务提供,也可作为本地部署的硬件集群提供,能运行来自Meta、DeepSeek等公司的AI模型 [2] - 公司称其LPU产品在成本显著低于核心替代方案的情况下,能保持或提升AI大模型推理运行效率 [2] 市场地位与竞争格局 - 公司被视为英伟达在AI芯片领域的最大竞争对手之一,其所在市场规模可能仅次于博通与AMD [1] - 公司致力于打破英伟达对AI算力基础设施的强势控制,后者市场份额高达90% [2] - 在可标准化的主流推理任务上,定制化AI ASIC的单位吞吐成本和能耗显著优于纯GPU方案 [7] - 当前行业实践倾向于采用“ASIC扛常态化、GPU扛探索峰值”的混合架构来最小化总拥有成本 [7] 技术优势与性能 - LPU采用TSP(张量流式处理器)核心架构,以静态、可预测的流式数据通路替代传统GPU范式,强调低延迟和稳定时延 [5] - LPU芯片采用大容量片上SRAM(约220MB)和超高片上带宽(官方示例达80TB/s),大幅减少“算存”往返 [5][6] - 在低/零批量的LLM推理场景中,LPU相比AI GPU集群能提供更低的时延、更稳定的吞吐和潜在更高的能效 [5] - 有报道称LPU在等效推理任务上的功耗约为常见GPU的三分之一 [6] 创始人背景与行业趋势 - 公司创始人Jonathan Ross曾参与开发谷歌的TPU芯片,该类芯片是谷歌为高负载AI计算设计的专用处理器 [3] - 谷歌最新披露的Ironwood TPU(TPU v6)与TPU v5p相比,峰值FLOPS性能提升10倍,功效比提升56倍 [3] - 谷歌Ironwood的42TFLOPS/瓦功效比略低于英伟达B200/300 GPU的45TFLOPS/瓦,表明专用AI ASIC正快速缩小与领先AI GPU的性能差距 [4] - 摩根大通评论认为,这一趋势正推动超大规模云计算服务商加大对象具性价比的定制化ASIC项目的投资 [4] 客户与投资者 - 公司目前为超过200万名开发者的AI应用提供算力支持,一年前这一数字仅为约35万名 [4] - 新一轮融资由投资公司Disruptive领投,资管巨头BlackRock、Neuberger Berman、Deutsche Telekom Capital Partners等参投 [4] - 三星、思科、D1和Altimeter等现有投资者也参与了本轮融资 [4][5]