全球大模型调用量趋势 - 根据OpenRouter数据,上周(3月2日-8日)中国大模型周调用总量飙升至4.19万亿Token,环比激增34.9% [2][6] - 同期美国大模型周调用总量为3.63万亿Token,环比下降8.5%,中国在调用总量上反超美国 [6] - 这是继今年2月(9日至15日当周,中国4.12万亿Token首次超越美国2.94万亿Token)后,中国大模型再度强势登顶全球榜首 [3][9] - 在2月16日-22日当周,中国模型调用量曾达到5.16万亿Token,三周内增幅达127%,而美国模型则萎缩至2.7万亿Token,差距持续拉大 [9] 热门应用与模型排名 - 热门应用“OpenClaw”持续霸榜,自一月起已消耗全球9.16万亿Token,成为算力消耗的“黑洞” [4][32] - 上周全球大模型调用量Top 5中,中国产品占据三席 [12] - MiniMax M2.5表现稳健,继续蝉联全球榜首;DeepSeek V3.2持续增长;Step 3.5 Flash成为上周最大黑马,成功跻身全球前五 [13] - 在2月16日-22日当周,Step 3.5 Flash曾一举超越谷歌,成为全球第一 [15] - 本月OpenClaw使用最多的模型前三均为国产:Kimi K2.5(1.2万亿Token)、Step 3.5 Flash(1.18万亿Token)、MiniMax M2.5(1.07万亿Token),均超过1万亿Token,形成三足鼎立格局 [34][35][37] 不同任务场景下的模型表现 - 在编程(代码生成、调试、开发)使用情况中,上周前三名分别是MiniMax M2.5、Kimi K2.5、Claude Opus 4.6 [17] - 在英文语境下,中国大模型上周表现亮眼,包揽全球前三名,证明国产模型在全球开发者生态中的地位日益增长 [19][21] - 在不同上下文长度的Token消耗上存在差异:在1K-10K tokens任务中,海外主流模型(如GPT-oss-120b、Gemini 2.5 Flash)占据上风;在10K-100K tokens任务中,MiniMax M2.5和DeepSeek V3.2成为更多选择;在更长的100K-1M tokens上下文里,MiniMax M2.5优势明显 [23][24][25] - 在工具使用情况上,MiniMax M2.5以3000万次调用、占比16.9%一骑绝尘 [27][30] - 在图像生成上,谷歌的Gemini 2.5 Flash Lite更受青睐,上榜的国产大模型为Qwen 3 VL 235B [30] 模型性能与成本评估(PinchBench榜单) - 在专为OpenClaw适配的PinchBench榜单的成功率维度上,Claude Opus 4.6位居第一(82.5%),国产大模型Kimi K2.5(80.1%)、MiniMax M2.1(79.5%)、Qwen3-Coder-Next(79.1%)得分均超过79%,位于榜单前列 [39] - 在速度维度上,国产大模型整体排名靠后,Kimi K2.5位于第20名,MiniMax M2.1是第23名,MiniMax M2.5是第26名 [40][41] - 在成本(价格)维度上,国产模型展现出性价比优势:Qwen/Qwen-2.5-7B-Instruct($0.08)、DeepSeek/DeepSeek-Chat($0.11)、Z-AI/GLM-4.5-Air($0.12)、MiniMax/MiniMax-M2.5($0.16)、Stepfun/Step-3.5-Flash($0.26)均榜上有名 [43] - 综合来看,国产大模型在调用量和实际应用中已实现局部领先,但在极致的响应速度方面仍有待提升 [44]
养虾人狂吃国产模型!4.19万亿Token调用量激增34.9%超越美国
量子位·2026-03-11 10:45