Token通胀
搜索文档
2月井喷,中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
36氪· 2026-02-27 11:31
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量首次超过美国模型的2.94万亿Token,实现历史性赶超[1][6][7] - 随后一周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内大涨127%,而同期美国模型调用量则跌至2.7万亿Token[1][7] - 全球调用量排名前五的模型中,中国模型占据四席,显示增长动能来自厂商集群式崛起,而非单一爆款产品[1][7] 中国市场增长轨迹 - 全球大模型Token调用量在过去一年(2025年3月3日至9日至2026年2月中旬)经历了爆发式增长,平台前十大模型的周调用量从1.24万亿Token飙升至13.95万亿Token,增长超过10倍[6] - 2025年,美国模型是市场主要动力,其Token周调用量一度占据平台前十大模型总量的近七成,而中国模型占比不到两成[6] - 进入2026年,美国模型增速显露疲态,中国模型开启“狂飙”模式,2月第一周(2日至8日)调用量已跃升至2.27万亿Token[6] 领先中国模型厂商表现 - 2026年2月16日至22日周榜显示,排名前五的模型中有四款来自中国厂商:MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7%[10] - MiniMax的M2.5模型于2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总调用量激增的3.21万亿Token中,仅M2.5就贡献了1.44万亿Token增量[10] - 月之暗面的Kimi K2.5模型凭借其多模态架构和强大的Agent并行处理能力(能调度多达100个“Agent分身”),调用量连续跳涨,发布后不到一个月的累计收入已超过其2025年全年总收入[13] - 智谱的GLM-5模型自2月12日发布后,凭借其200K超长上下文窗口和对长程Agent任务的优化,调用量在上线次周便增长至0.8万亿Token[13] 中国模型厂商的市场地位与生态 - 根据a16z与OpenRouter联合发布的报告,过去一年,DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列模型以5.59万亿位居全球第二[13] - 在中国大模型B端市场,2025年下半年,千问(Qwen)系列模型的日均Token调用量占比32.1%位列第一,相较上半年的17.7%几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] - 产业形成“AI中国团”的宽广技术产业群落,有利于竞争创新和在中美AI竞争中形成集群优势,硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型[15] 中国模型的核心成本优势 - 中国模型具备显著的成本优势,在模型处理输入信息(Input)环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元每百万Token,而海外对标产品Claude Opus4.6的价格为5美元/百万Token,是中国模型的约16.7倍[16] - 在模型生成内容(Output)环节,成本差异更为悬殊:MiniMax M2.5为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[16] - 成本优势首先源于算法架构创新,以“混合专家”(MoE)架构为代表的技术路线是大幅降低推理成本的核心原因之一,采用MoE架构可直接让推理时显存占用降低60%,推理吞吐量提升高达19倍[18] 成本优势的深层驱动与产业整合 - 除了算法革新,中国AI厂商通过“垂直整合”路径进一步压缩成本,即将上层的模型算法、中层的云计算基础设施和底层的AI芯片进行深度一体化协同设计与优化,以榨干每一分算力[19] - 以阿里巴巴的“通义-云-芯”体系为例,通过极致的算力调度算法实现对底层硬件资源的最高效利用,从而大幅降低了AI服务背后的基础设施成本[19] - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在短短5年间实现370倍的增长[19] Token性质与商业模式演变 - Token正从互联网时代的“流量”,转变为AI时代的“燃料”,其消耗量的指数级攀升源于用户对AI使用模式的根本性转变,即AI从“问答工具”进化为深度参与工作流的“生产力工具”[21] - 国联民生证券提出“Token通胀”概念,指单位时间内、单位用户的Token消耗结构性上升,归因于三大趋势:需求从“问答”转向“干活”、AI Agent技术的兴起普及、以及推理强度上升[21] - 英伟达CEO黄仁勋强调“计算即收入”、“推理即收入”,指出推理性能直接决定了客户的收入能力,而推理的核心正是高效地生成可被商业化的Token,“性能/瓦特”成为关键指标[22] 未来商业模式展望 - AI服务的商业模式正从过去单纯的“按量计费”,向“燃料+成果”的混合模式演进,一方面Token单价会随技术进步和规模效应下降,另一方面企业将更愿意为直接的“成果”付费,催生更多基于订阅制的商业模式[22] - 未来AI服务的定价将走向高度定制化和灵活化,一个涵盖计算消耗、调用频次、任务复杂度(如多步推理)等多维度的动态定价体系将成为主流[23]
中国AI调用量首超美国 四款大模型霸榜全球前五
每日经济新闻· 2026-02-26 19:44
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量首次超越美国模型的2.94万亿Token,实现历史性赶超[1][7] - 随后一周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内大涨127%,同期美国模型调用量则降至2.7万亿Token[1][7] - 在全球最大的AI模型API聚合平台OpenRouter上,全球大模型Token周调用量在不到一年内增长超过10倍,从2025年3月初的1.24万亿Token飙升至2026年2月中旬的13.95万亿Token[6] 中国AI厂商集群式崛起 - 2026年2月16日至22日当周,全球调用量排名前五的模型中,中国模型占据四席,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2[1][10] - 这四款中国模型合计贡献了Top5总调用量的85.7%[10] - 中国模型的爆发式增长并非依赖单一产品,而是厂商集群式崛起的结果,形成了宽广的技术产业群落[1][7][15] 领先模型表现与市场动态 - MiniMax的M2.5模型于2026年2月13日发布,上线不足一周便登顶周调用量榜首,其在2月9日至15日当周贡献了平台总增量3.21万亿Token中的1.44万亿Token[10] - 月之暗面的Kimi K2.5模型发布后,其不到一个月的累计收入已超过2025年全年总收入,增长由全球付费用户及API调用量大涨推动[13] - 智谱的GLM-5模型自2月12日发布后,调用量在上线次周便增长至0.8万亿Token[13] - 根据a16z与OpenRouter的报告,过去一年DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列以5.59万亿位居第二[13] - 在中国大模型B端市场,2025年下半年千问系列模型的日均Token调用量占比为32.1%,相比上半年的17.7%几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] 中国模型的核心竞争力:极致成本优势 - 中国模型在性能比肩国际顶尖模型的同时,具备极具竞争力的成本优势[15] - 在处理输入信息环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元/百万Token,而海外对标产品Claude Opus4.6的价格为5美元/百万Token,是中国模型的约16.7倍[15] - 在生成内容环节,成本差异更悬殊:MiniMax M2.5输出价格为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[16] 成本优势的技术根源 - 以“混合专家”架构为代表的技术路线是中国模型大幅降低推理成本的核心原因之一,DeepSeek、阿里巴巴通义千问3.5-Plus等模型已广泛采用此架构[18] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,可降低推理时显存占用60%,并将推理吞吐量提升高达19倍[18] - 中国AI厂商积极探索“垂直整合”路径,将模型算法、云计算基础设施和AI芯片进行一体化协同设计与优化,以极致算力调度实现最高效的硬件资源利用,进一步压缩成本[19] AI应用范式转变与Token价值重估 - AI角色正从“问答工具”进化为深度参与工作流的“生产力工具”,驱动Token消耗量指数级攀升[19] - “Token通胀”概念被提出,指单位时间内、单位用户的Token消耗结构性上升,归因于三大趋势:需求从“问答”转向“干活”、AI Agent技术普及、以及推理强度上升[20] - Token正从互联网时代的“流量”转变为AI时代执行生产任务必不可少的“燃料”[20] - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到330%,在5年间实现370倍的增长[19] 行业商业模式与未来展望 - AI服务的商业模式正从“按量计费”向“燃料+成果”的混合模式演进,企业将更愿意为直接的“成果”付费,催生更多基于订阅制的商业模式[21] - 未来AI服务定价将走向高度定制化和灵活化,计算消耗、调用频次、任务复杂度等多维度因素将构成动态定价体系[22] - 英伟达CEO强调“计算即收入”“推理即收入”,指出推理性能直接决定客户收入能力,而“性能/瓦特”成为衡量AI服务效率与收入能力的关键指标[21] - 硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型,显示了中国模型在全球开发者中的广泛吸引力[15]
2月井喷!中国AI调用量首超美国 四款大模型霸榜全球前五 国产算力需求正经历指数级增长
每日经济新闻· 2026-02-26 19:40
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量,首次超越同期美国模型的2.94万亿Token [1] - 次周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内增长127%,同期美国模型调用量则降至2.7万亿Token [1][7] - 全球AI模型API调用量在过去一年内(2025年3月初至2026年2月中旬)经历了超过10倍的增长,从周调用量1.24万亿Token飙升至13.95万亿Token [6] 中国模型集群式崛起与市场主导 - 在2026年2月16日至22日的周榜单中,全球调用量排名前五的模型有四款来自中国,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2 [10] - 这四款中国模型合计贡献了Top5总调用量的85.7% [10] - 中国模型的崛起并非依赖单一产品,而是厂商集群式发展的结果,在海外开发者主导的平台(美国用户占47.17%,中国用户仅占6.01%)上展现出全球吸引力 [1][3] 领先模型表现与市场格局 - **MiniMax M2.5**:于2026年2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总增量3.21万亿Token中,其单一模型贡献了1.44万亿Token [10] - **月之暗面Kimi K2.5**:发布后调用量连续跳涨,其能调度多达100个Agent并行工作,将复杂任务处理效率提升3到10倍,发布后不到一个月的累计收入已超过其2025年全年总收入 [13] - **智谱GLM-5**:发布后用户规模高速增长,上线次周调用量增长至0.8万亿Token [13] - **市场集中度**:2025年下半年,在中国大模型B端市场,阿里千问系列模型的日均Token调用量占比达32.1%,相比上半年(17.7%)几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] - **全球总量**:过去一年,DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问以5.59万亿位居第二 [13] 核心竞争优势:极致的成本优势 - **输入成本**:中国头部模型如MiniMax M2.5和智谱GLM-5的输入价格均为0.3美元/百万Token,而美国主流模型Claude Opus 4.6的价格为5美元/百万Token,是前者的约16.7倍 [15] - **输出成本**:MiniMax M2.5的输出价格为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,Claude Opus 4.6则高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍 [16] - 中国模型在多项基准测试(如SWE-Bench Verified、BFCL Multi-Turn)中表现已比肩甚至超越国际顶尖模型,结合巨大成本优势,形成强大竞争力 [15][17] 技术架构创新驱动降本增效 - **混合专家模型架构**:以MoE架构为代表的技术路线是中国模型大幅降低推理成本的核心原因之一,DeepSeek、阿里通义千问等模型均已广泛采用 [18] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,可降低推理时60%的显存占用,并将推理吞吐量提升高达19倍 [18] - **垂直整合路径**:中国厂商积极探索将上层模型算法、中层云基础设施和底层AI芯片进行一体化协同优化,如阿里的“通义-云-芯”体系,通过极致算力调度进一步降低基础设施成本 [19] 行业趋势:Token从“流量”变为“燃料” - **需求质变**:AI正从“问答工具”进化为深度参与工作流的“生产力工具”,驱动单位用户Token消耗量结构性上升,即“Token通胀” [19][20] - **三大驱动力**:1) 用户需求从浅层问答转向深度“干活”(如重构代码、生成文档);2) AI Agent技术普及,多步骤调用累加Token消耗;3) 推理强度上升,更长链路的深度思考增加Token消耗 [20] - **商业模式演进**:AI服务从“按量计费”向“燃料+成果”混合模式演进,企业更愿为直接“成果”付费,催生订阅制等新模式,未来定价将向高度定制化、多维度的动态体系发展 [21][22] 市场增长预测与产业生态 - **增长预测**:摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在5年间实现370倍的增长 [19] - **产业生态**:形成“AI中国团”的宽广技术产业群落,多家头部企业并存的格局有利于竞争创新和人才生态建设,并在中美AI竞争中形成集群优势 [15] - **全球影响**:在硅谷寻求融资的AI初创公司中,其路演核心模型有高达80%使用中国的开源模型 [15]
2月井喷!中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
每日经济新闻· 2026-02-26 19:35
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型的Token调用量达到4.12万亿,首次超过同期美国模型的2.94万亿,实现历史性赶超[8][9] - 次周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内增长127%,而同期美国模型调用量降至2.7万亿Token[2][9] - 全球最大的AI模型API聚合平台OpenRouter数据显示,其前十大模型的周调用量从2025年3月初的1.24万亿Token飙升至2026年2月中旬的13.95万亿Token,不到一年增长超过10倍[8] 中国模型集群式崛起与市场主导 - 在2026年2月16日至22日的周榜单中,全球调用量排名前五的模型中有四款来自中国,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7%[12] - 中国模型的增长动能并非依赖单一产品,而是厂商集群式崛起[2][9] - 在OpenRouter平台用户以海外开发者为主(美国占47.17%,中国仅占6.01%)的背景下,此数据客观反映了中国AI模型在全球范围内的真实吸引力[5] 领先模型表现与市场格局 - MiniMax的M2.5模型于2026年2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总调用量激增的3.21万亿Token中,仅M2.5一款模型就贡献了1.44万亿Token增量[12] - 月之暗面的Kimi K2.5模型能调度多达100个“Agent分身”并行工作,将复杂任务处理效率提升3到10倍,发布后不到一个月的累计收入已超过其2025年全年总收入[15] - 根据a16z与OpenRouter的联合报告,过去一年DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列以5.59万亿位居第二[15] - 在中国大模型B端市场,2025年下半年千问(Qwen)系列模型的日均Token调用量占比为32.1%,位列第一,相比上半年(17.7%)几乎翻倍[16] 显著的成本竞争优势 - 中国模型具备极强的成本优势,以OpenRouter平台价格为例,在输入环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元/百万Token,而海外对标产品Claude Opus4.6为5美元/百万Token,是前者的约16.7倍[18] - 在输出环节,成本差异更为悬殊:MiniMax M2.5为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[18] - 中国模型在多个基准测试中表现比肩甚至超越国际顶尖模型,如MiniMax M2.5在SWE-Bench Verified测试中得分为0.802,与Claude Opus4.6的0.808相近[19] 技术架构创新驱动降本增效 - 以“混合专家”(MoE)架构为代表的技术路线是中国模型能够大幅降低推理成本的核心原因之一,DeepSeek、阿里巴巴的通义千问3.5-Plus等模型已广泛采用该架构[20] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,能极大减少计算量和硬件资源需求,数据显示采用MoE架构可直接让推理时显存占用降低60%,推理吞吐量提升高达19倍[20] - 中国AI厂商积极探索“垂直整合”路径,将模型算法、云计算基础设施和AI芯片进行深度一体化协同设计与优化,以极致算力调度算法实现硬件资源最高效利用,进一步降低基础设施成本[21] Token消耗增长驱动与商业模式演进 - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在5年间实现370倍的增长[21] - AI角色正从“问答工具”进化为“生产力工具”,用户核心需求从浅层“问答”转向深度“干活”,导致“Token通胀”,即单位用户Token消耗结构性上升[22] - AI Agent技术的兴起和普及,以及推理强度的上升,进一步放大了Token的消耗[22] - AI服务商业模式正从“按量计费”向“燃料+成果”混合模式演进,未来定价将走向高度定制化和灵活化,形成多维度、动态的定价体系[23][24] 产业生态与全球影响 - 产业市场形成由多家头部企业构成的“AI中国团”宽广技术产业群落,有利于竞争创新和人才生态建设,并在中美AI竞争中形成集群优势[17] - 知名风投机构a16z的合伙人观察到,在硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型[17] - Token正从互联网“流量”转变为AI时代执行生产任务必不可少的“燃料”,推理性能直接决定客户的收入能力[23]
国联民生证券:Token需求在“通胀” 短期观察大模型厂商提价与需求带来的边际改善
智通财经· 2026-02-22 21:33
核心观点 - 大模型产业的定价逻辑正发生根本性转变,计量单位从传统互联网的“免费流量”转变为“Token消耗”,Token成为可计量、有成本的生产资料 [1][3][4] - 智谱GLM Coding Plan涨价(涨幅“至少30%”)是这一转变的关键信号,反映了模型厂商正将“算力稀缺”通过分层定价和订阅化产品转化为毛利与现金流 [1][2][4] - Token需求呈现结构性“通胀”,即单位用户和单位时间内的Token消耗量快速上升,这由应用从简单问答转向复杂任务、从单轮交互转向多轮Agent执行、以及推理强度上升等因素驱动 [1][5][6] - 行业短期关注提价与需求增长带来的边际改善,中期关注企业席位与订阅留存,长期则看好AI安全与治理工具带来的新增市场 [1][7] 行业定价逻辑的颠覆性变化 - 传统互联网软件依赖近乎零的边际成本,通过免费获取用户规模后变现,而大模型服务的每一次推理都需消耗GPU、显存、带宽与电力,具有真实的、可计量的成本 [3][4] - 行业计量单位从流量(DAU/时长)转向Token(推理消耗),Token在越来越多场景中成为用户完成生产任务的刚需“燃料” [3][4][6] - 云计算时代已教育市场接受“按量计费”,大模型厂商正借鉴此模式,将服务明确为资源和SLA的交付 [3] - 当需求增长导致算力资源紧张时(如智谱曾因用户增长进行“限量发售”),涨价成为比无差别限流更优的需求筛选与体验保障机制,并有助于模型厂商改善盈利模型 [4] 近期涨价事件与产业信号 - 智谱于2月12日宣布上调GLM Coding Plan订阅价格,涨幅“至少30%” [2] - 此次涨价并非孤立事件,同期海外云厂商也纷纷提价,例如Google Cloud在北美涨价幅度达100%,在欧洲与亚洲同步上调,AWS价格也上调约15% [2] - 综合来看,Token需求的“通胀”不仅利好云端算力提供商,也增强了模型厂商自身的定价权 [2] - 智谱的涨价行为发生在行业仍处“模型价格战”的背景下,更具标志性意义,表明头部厂商开始尝试扭转“规模越大亏损越多”的困境 [3][4] Token需求“通胀”的驱动因素 - **应用场景深化**:用户使用模型从简单“问答”转向实际“干活”,如重构代码、改写文件、生成文档和跑测试等,编程场景的长上下文、多轮迭代、大量输出特征导致Token消耗快速增长 [5] - **交互模式演进**:从“单轮”交互发展到“Agent多轮”协作,Agent会主动规划、检索、执行、反思,多次调用模型,使得Token消耗按步骤累加,智谱GLM-5与MiniMax-WP的M2.5模型均重点面向此类场景 [5] - **推理强度上升**:用户为获得更高成功率与更少返工,倾向于进行更深度思考与更长链路推理,这显著提高了输出与中间过程的Token消耗,用户愿意“多烧Token换效率” [6] 产业链各环节的投资关注点 - **云厂商与算力基础设施**:AI拉动的IT支出与基础设施投入仍处上行周期,云侧将受益于GPU算力、存储与网络I/O等“伴随型消耗”的持续增长 [7] - **大模型厂商**:关键在于能否在编程、Agent、企业流程等高投资回报率场景中维持订阅留存与企业席位扩张,将“Token用量”稳定转化为“省人省时省返工”的交付价值,从而具备穿越开源与价格战周期的能力 [7] - **安全治理与运行时防护工具**:随着企业将AI深度嵌入工作流,数据泄露、代理越权等风险将推动“AI安全平台/治理平台”成为刚需,长期看好“AI防火墙”相关的新增市场 [7]
黄仁勋开年定调:AI 真升级,靠工业化
36氪· 2026-01-06 09:51
文章核心观点 - AI行业的发展重心正从追求单点模型突破转向构建完整的工业化能力体系 英伟达CEO黄仁勋在CES上宣布计算行业每一层都需重写 强调AI的真正跃迁依赖于可复制、可部署、可验收且能规模化的工业化能力[1] - 英伟达通过发布完整的工业化体系 定义了AI竞争的新焦点 即从模型能力竞争转向工业化速度与体系的竞争[45] 应用架构变革 - AI应用构建方式发生根本转变 从“写软件”转变为“训练软件” 开发者角色从编程转向训练智能体理解如何做事[4] - 底层逻辑发生三大变化:从编程到训练、从CPU到GPU的加速计算、从调用单一模型到架构能调用多模型和工具的工作智能体[4] - 英伟达提出“AI蓝图”架构 这是一套可被复制和定制的通用方法 企业可基于此教AI专属技能 工程师可插入自有数据 使各行业能建立自主协作的AI[6][7][8][9] - AI应用的底座从软件架构转变为智能架构[10] 算力基建升级 - 决定AI能否广泛应用的关键是底层算力“发电厂” 英伟达发布Rubin AI平台作为核心引擎[11][12] - Rubin平台是一次全套计算方式的重做 包括六大芯片协同设计、物理结构彻底重构以及能效革命性提升 组装时间从2小时缩短至5分钟[13] - 推出Rubin旨在解决“Token通胀”带来的算力危机 模型规模年增10倍 推理Token生成量年增5倍 但Token价格年跌10倍[14] - Rubin平台相比前代Blackwell实现显著提升:训练10万亿参数模型所需系统仅为Blackwell的1/4 每瓦性能是Blackwell的10倍 Token生成成本是Blackwell的1/10[16] - 一个500亿美元、1吉瓦电力的数据中心使用Rubin可比使用Blackwell多产出10倍收入[16] - Rubin已全面投产 旨在为全行业提供标准化的算力底座[16] 物理AI与机器人工业化 - 机器人正成为AI工业化后第一批量产的实体产品 被归类为“Physical AI” 即能理解物理世界运作规律(如重力、摩擦)的AI[17][18][19] - 英伟达建立了完整的Physical AI训练体系 核心是使用“模拟计算机”在虚拟世界中反复演练 关键工具包括世界基础模型Cosmos和物理模拟平台Omniverse[22][23][24][30] - 自动驾驶AI系统Alpamayo是该方法论的验证 它是全球首个会推理的端到端自动驾驶系统 能解释行为原因以应对长尾场景[24][25] - Alpamayo的训练数据结合了人类驾驶里程、Cosmos生成的数十亿公里虚拟数据以及精细标注的边缘案例 并采用双堆栈安全设计[26] - 该系统计划于2026年Q1在梅赛德斯-奔驰CLA车型上路 且已开源[26] - 此工业化路径适用于各类机器人 英伟达展示的Groot人形机器人等均在Omniverse中训练 将部署于仓库、医院等多场景[27][28] 开源生态战略 - 英伟达通过开源模型、数据和工具链来降低AI门槛 旨在让每家公司都能构建自己的AI 其战略是做AI时代的“台积电” 专注于卖芯片和算力基础设施[31][34][40] - 开源对英伟达的好处包括:1) 扩大市场规模 激活需要自训练模型的成千上万家长尾企业需求[32] 2) 建立事实标准 通过开源Nemo工具链、Cosmos、Omniverse、Blueprint等 深度绑定其芯片生态[33][35][36] 3) 锁定生态 使合作伙伴如Palantir、西门子、Meta等形成依赖 增加切换成本[37][41] - 该战略对产业意味着:1) AI竞争从模型能力转向工业化能力(训练速度、部署成本、场景落地)[37][42] 2) 为创业公司创造机会 使其能基于开源模型和行业数据建立专属AI能力[38] 3) 促使云厂商在深度集成闭源模型与支持开源生态之间做出选择[39] - 英伟达的产业布局分为三层:开源模型与工具链降低门槛、Rubin芯片与算力基础设施锁定生态、Physical AI标准路径定义下一代产业[43][44]