黄仁勋砸千亿兆瓦算力,押注下一个“Open AI”
英伟达英伟达(US:NVDA) AI前线·2026-03-11 17:32

Thinking Machines Lab与英伟达的战略合作 - 英伟达与Thinking Machines Lab达成长期战略合作,将提供至少1吉瓦的下一代NVIDIA Vera Rubin系统,预计明年初部署,用于前沿模型训练和平台建设[2] - 合作不仅是算力采购,更是资本、芯片和技术路线的深度绑定,英伟达提供下一代算力底座,Thinking Machines Lab则在其上打磨训练体系、推理系统和模型能力[2] 合作规模与行业对比 - 1吉瓦算力规模巨大,相当于接近10个100兆瓦级大型数据中心的总量级,足以覆盖约75万个美国家庭的用电规模,整体投入成本可能高达500亿美元[4][5] - 该规模已与AI巨头处于同一量级:是OpenAI与英伟达10吉瓦历史性合作的十分之一,与马斯克为xAI规划的近2吉瓦及Meta在得州推进的1吉瓦级数据中心目标相近[5] - 如此庞大的算力指向持续的基础模型训练、多模态系统开发、推理平台搭建及大规模服务能力,而非小模型或轻量化工具[6] Thinking Machines Lab的公司背景与融资 - 公司成立于2025年2月,初始团队约30人中至少有20人来自OpenAI[10] - 成立仅5个月便获得20亿美元种子轮融资,为硅谷史上最大种子轮之一,投资方包括a16z、英伟达、AMD、思科等巨头[10] - 英伟达在种子轮后再度通过本次合作加码投资并绑定算力,黄仁勋曾称其团队为“世界一流的团队”[10] 英伟达的产业布局逻辑 - 英伟达通过提前锁定未来大客户进行全局布局,而非等待其成长后再抢单,旨在分享整个生态成长的红利,而非仅依赖芯片收入[12] - 面对成型AI巨头:与OpenAI达成10吉瓦算力合作;通过微软、英伟达、Anthropic三方绑定,为Anthropic提供下一代硬件、1吉瓦算力与最高100亿美元投资,实现技术深度锁死[11] - 面对AI新势力:广泛下注,包括向AI搜索公司Perplexity投资5亿美元,参投Runway、Figure AI、Wayve等明星项目,覆盖下一代热门赛道[11] - 投资Thinking Machines Lab是押注其成为下一个OpenAI级别的平台型公司,看重其未来长成平台的潜力[12] 英伟达的战略升级与标准争夺 - 英伟达的战略从“卖铲子”升级为“参与建矿”,希望深度嵌入下一代AI公司的资本结构、算力供给和技术路线图之中[13] - “绑定”方式是将客户锁进从芯片、网络、系统软件到数据中心的整套AI Factory全栈方案,旨在将自身架构写入客户训练、推理和运维体系,大幅提高未来迁移成本[14] - 英伟达CEO黄仁勋将AI产业概括为自下而上的五层架构:能源、芯片、基础设施、模型和应用,并强调最底层的能源是AI基础设施的第一性原理[14][16] - 黄仁勋预测到本世纪末,全球AI基础设施支出将达到3万亿至4万亿美元[17] - 英伟达正推进成为“AI工厂总包商”,最深层的争夺是未来AI工厂的标准制定权,包括训练大模型、跑推理、建设吉瓦级园区的默认架构、网络、供电冷却方式及系统软件栈[18] Thinking Machines Lab的业务定位与野心 - 公司切入的是模型后训练和微调基础设施领域,提供现成的训练工具解决分布式训练、任务调度等底层问题,让开发者专注于模型本身[20] - 其核心是搭建一套面向未来的AI基础平台底座,以支撑更大规模模型训练、复杂实验流程和高强度推理需求[20] - 公司强调多模态是核心,且研究与产品不可分,依赖稳定、可扩展的底层基础设施[23] - 大规模算力旨在同时支撑多个任务:前沿基础模型预训练、多模态与大规模MoE模型持续实验、模型后训练与优化、企业客户服务及面向科研机构的开放访问[23] - 野心不止于做出单一模型,而是将模型能力、训练能力和服务能力铺成一张可扩展的分发网络,旨在与OpenAI、Anthropic等巨头正面竞争[24] 行业竞争态势与公司挑战 - 当前AI竞争已从比拼“谁拥有更好的模型”转向比拼“谁能同时攥住资本、芯片、供电、园区和系统架构协同”[24] - Thinking Machines Lab在成立约一年内,团队从约30人扩张至约120人[24] - 公司面临核心联合创始人集体“叛逃”的组织动荡:2025年10月联合创始人Andrew Tulloch加入Meta;2026年1月,联合创始人Barret Zoph和Luke Metz与研究人员Sam Schoenholz回到OpenAI[24] - 公司的“全栈野心”正经历快速扩张期组织动荡的考验[25]