英伟达,筑起新高墙

文章核心观点 - 英伟达通过一系列战略性交易(如与Groq达成协议、收购Bright Computing、Run.ai和SchedMD),系统性地构建了超越硬件(GPU)的生态壁垒,其战略重心正从统治训练算力转向掌控推理效率和整个AI计算系统的非硬件控制权,旨在通过整合集群调度、工作负载定义和企业级支持服务,大幅提高客户的迁移成本,从而巩固其市场主导地位 [1][2][4][7][23][24] AI芯片竞争格局与英伟达的战略焦虑 - AI芯片竞争焦点正从“训练为王”转向“推理决胜”,在推理端,AMD、定制ASIC及云厂商自研芯片正快速逼近,成本和供应链多元化成为客户现实诉求 [2] - 英伟达的焦虑源于AI产业重心从堆算力(FLOPS)转向高效、确定性地交付推理结果,其统治性的GPU在推理端的话语权可能被系统层逐渐侵蚀 [4][7] - 英伟达采取“收购式招聘”等操作,在不触碰监管红线的前提下,将潜在威胁(如Groq)纳入自身体系 [1] Groq的技术价值与英伟达的交易动机 - Groq的核心技术是自研的LPU架构,采用静态调度和确定性设计,使用SRAM而非HBM,主打极致低延迟和性能确定性,其创始人Jonathan Ross是谷歌第一代TPU的首席架构师 [5] - 2024年,Groq展示其系统运行Llama 2-70B模型时,生成速度超过每秒300个Token,远超主流GPU系统,吸引了金融、军事等对延迟敏感的垂直行业用户 [6] - 英伟达与Groq的交易并非为了补一块芯片,而是为了获取对执行路径的强约束、对延迟的可预测性以及编译器主导的算力使用方式等系统能力 [7] - 此次交易几乎具备收购的全部要素:技术被许可,团队被吸纳,关键人物离场,Groq最具决定性的资产已转移 [1] 英伟达构建集群控制体系的战略步骤 - 收购Bright Computing:2022年1月,英伟达收购了集群管理工具Bright Computing(后更名为Base Command Manager),将其纳入AI Enterprise软件堆栈,按每个GPU每年4500美元的费用出售“系统能力”,把集群管理变为商业资产 [10][11] - 收购Run.ai:2024年,英伟达收购Run.ai,其核心价值在于实现GPU资源的抽象化管理(多租户、弹性调度、GPU虚拟化),防止云厂商通过调度层稀释CUDA生态优势 [13] - 收购SchedMD:2025年12月,英伟达收购了Slurm工作负载管理器背后的核心团队和技术支持公司SchedMD,Slurm在过去十年中约占Top500超级计算机60%的份额,是HPC和AI领域的事实标准 [17][18] - 整合与打包:2024年10月,英伟达停止单独销售Bright Cluster Manager,仅将其作为AI Enterprise Stack的一部分提供,旨在将所有系统组件打包成不可分割的整体 [21] 英伟达构建的“生态城墙”三层结构 - 第一层:集群资源调度权:通过Mellanox的网络互联、Bright Computing的集群管理、SchedMD的工作负载调度,控制算力连接、分配和执行的完整链条 [23] - 第二层:工作负载执行路径定义权:通过Run.ai的GPU虚拟化、Mission Control的自动化部署和健康检查、Slurm的作业调度,共同定义任务如何运行,使迁移成本高企 [23] - 第三层:企业级支持与系统复杂度掌控权:通过AI Enterprise许可证模式,将工具打包成“系统集成能力”商业服务,客户购买的是英伟达的优化经验与最佳实践 [24] - 这三层叠加使得客户理论上可选择其他硬件,但实践中迁移成本难以承受,英伟达的商业模式已从卖芯片质变为卖生态,GPU成为生态入口 [23][24]