Workflow
DeepSeek V3.2
icon
搜索文档
AI泡沫:美国新一轮量化宽松导火索?
中邮证券· 2026-04-07 14:43
美国AI产业现状与泡沫风险 - 美国AI产业繁荣,2026年2月企业端AI付费应用渗透率达47.6%[12] - 美股上涨高度集中,科技七巨头(Mag7)2024年贡献标普500指数53%的回报,其市值占比从2019年的15%升至2025年的33%[17][18] - 美国主导全球AI融资,2025年全球AI一级市场融资的79%(1590亿美元)流向美国,其中旧金山湾区占美国投资额超75%[23] - 美国前沿AI模型产出领先,2024年产出40个重磅模型,占全球近90%[26] - AI大模型推理成本快速下降,以GPT-3.5为基准,成本从2022年11月的20美元/百万tokens降至2024年10月的0.07美元/百万tokens,降幅约99.65%[33] 泡沫酝酿的迹象与潜在影响 - 头部云厂商资本开支激增,2025年四巨头(亚马逊、Meta、谷歌、微软)资本开支预计达3055亿美元,AI贡献标普500总资本开支增量的90%[45] - AI行业盈利模式未闭环,头部模型厂商如OpenAI在2024年收入35-45亿美元,但运营费用可能达85亿美元,处于亏损扩张状态[53] - 行业债务风险上升,2025年AI相关借款规模激增,仅9-10月债务发行超1100亿美元,数据中心建设高度依赖外部融资[57][59] - 若AI泡沫破裂,可能通过负财富效应冲击消费(美国家庭股票资产占金融资产比重达47.0%),并通过资本开支骤降拖累经济增长(参考2001年光纤泡沫破裂后资本开支下降35%)[82][92] - 泡沫破裂可能触发美联储重启量化宽松以稳定经济,政策传导将影响长端利率、风险资产及大宗商品价格[2][3]
国产大模型:这次剧本不一样
经济观察报· 2026-04-05 15:06
全球AI模型调用格局与中国模型崛起 - 截至2026年4月3日当周,全球最大AI模型聚合平台OpenRouter调用量排名前十的模型中,有六个来自中国,按调用量从高到低依次为:小米MiMo-V2-Pro、阶跃星辰Step 3.5 Flash、MiniMax M2.7、DeepSeek V3.2、智谱GLM 5 Turbo和MiniMax M2.5 [2] - 其中,小米MiMo-V2-Pro以4.82万亿Token的调用量位居全平台第一 [2] - 自2026年2月9日至15日当周中国模型调用量首次超过美国以来,中国模型的领先优势已持续近两个月,该周中国模型Token调用量达4.12万亿,超过美国模型的2.94万亿,随后一周中国模型调用量升至5.16万亿,三周时间增长127% [2][11] 中国模型的价格优势与成本结构 - 中美主流大模型的API定价存在巨大差距,以输入价格为例,中国模型如DeepSeek V3.2为每百万Token 0.28美元,美国模型如Anthropic Claude Opus 4.6为5美元,美国主流模型的输入价格约为中国主流模型的10至20倍 [6] - 输出价格差距更为明显,中国模型如DeepSeek V3.2为每百万Token 0.42美元,美国模型如Claude Opus 4.6为25美元,中美主流模型输出价格差距约为7倍至60倍 [6] - 中国大模型价格优势显著的原因包括:中国算力基础设施规模大、复用率高、报价较低,且算力集群中存在大量自建算力,获取成本低于海外;此外,主流中国大模型普遍采用MoE(混合专家模型)架构,每次推理只激活部分参数,大幅降低了计算量 [12] 智能体应用兴起与需求结构变化 - 2026年2月前后,开源智能体工具OpenClaw(“龙虾”)迅速走红,上线后登顶OpenRouter应用排行榜第一,单周消耗超6000亿Token [7] - 智能体应用使AI能自主执行编程、测试等任务,导致Token消耗量激增,一个活跃的OpenClaw会话上下文很容易膨胀到23万Token以上,若全程使用Claude API,月费用可能在800至1500美元之间 [8] - OpenRouter前十大模型周调用量从2025年3月初的1.24万亿Token,增长至2026年2月中的超过8.7万亿Token,增长近7倍,同时编程任务在平台Token消耗中的占比从2025年初的11%升至2025年底的50%以上 [8] - 当单次任务Token消耗从几千增至几十万,中美模型间的价格差距从可忽略转变为每月数百甚至上千美元的显著差异,促使开发者因成本考虑转向中国模型 [9][11] 中美模型能力对比与“分层调用”模式 - 在编程能力上,中美头部模型已非常接近,根据SWE-Bench Verified评测,2026年2月发布的中国模型MiniMax M2.5得分为80.2%,美国模型Claude Opus 4.6为80.8%,两者差距仅0.6个百分点 [10] - 在整体综合能力与复杂推理上,中美模型仍有差距,在LMSYS Chatbot Arena截至2026年3月25日的综合排名中,前五名均为美国公司模型,中国模型中排名最高的DeepSeek V3.2 Speciale位列第六,在专门测试复杂推理的Hard Prompts类别中,第一梯队仍主要为美国模型 [16] - 编程能力接近、复杂推理尚有差距的现状,催生了“分层调用”的优化成本模式,开发者将简单任务交由低价中国模型处理,复杂任务再调用高价美国模型,例如ClawRouter项目采用此方式后,平均成本从每百万Token 25美元降至约2美元 [15][16] - 硅谷风投机构a16z合伙人表示,在使用开源技术栈的AI初创公司中(约占全部美国AI初创公司的20%至30%),约80%的公司使用中国模型 [14] 行业从价格战到集体提价的转变 - 2024年中国大模型行业曾发生价格战,部分厂商Token价格下降超过90%,推理算力毛利率一度为负,策略是以亏损换取规模、培养用户习惯 [17] - 2026年初智能体应用推高Token消耗,算力供给趋紧,行业开启集体涨价,智谱在2026年2月和3月发布新模型时两轮累计提价83% [17] - 智谱CEO表示,2026年一季度API调用定价提升83%的同时,调用量增长了400%,公司2025年全年收入达7.243亿元,同比增长132%,MaaS平台年度经常性收入约为17亿元,12个月增长60倍 [17] - 2026年3月,腾讯云调整混元系列大模型定价,部分模型涨幅超460%,阿里云与百度智能云同日发布调价公告,AI算力相关产品涨幅在5%至34%之间 [18] - 中国日均Token调用量已突破140万亿,较两年前增长超过1000倍 [20] 中国大模型的角色定位与未来挑战 - 有观点将国产大模型类比为“AI时代的富士康”,凭借价格优势切入全球AI产业链的执行环节 [4] - 与30年前利润率被压低的消费电子代工不同,中国大模型厂商展现出一定的定价权,例如智谱涨价83%后调用量增长400%,其他云厂商提价后需求并未萎缩,调用量持续增长 [21] - 行业评价标准正在改变,从过去衡量算力多少,转变为看其能够多么经济地产出Token [19] - 中国大模型在AI应用端的竞争力很强,甚至是在引领,但在原创性创新上仍有提升空间,当前AI核心架构多由海外率先提出,中国大模型下一步需要在应用端继续发力的同时,在基础算法上展开原创性创新 [21]
谁在赚Token出海第一桶金?从“卖铲子”到“挖金矿”机会在轮动
和讯· 2026-04-02 18:00
Token出海:AI时代的新型数字外贸模式 - 文章核心观点:Token出海是中国将“电力+算力+模型+应用”打包形成的AI服务能力,通过API调用、SaaS订阅等形式向海外输出,实现“电不出境、价值跨境”的新型数字外贸模式,其本质是围绕“算力定价权”的全球竞争[2][6][18] 产业背景与核心变化 - 全球AI竞争正从“模型能力”转向“谁能更低成本提供服务”,Token成为AI时代最核心的计价单位[11] - 2026年2月出现历史性转折:在OpenRouter平台上,中国AI模型周调用量峰值达5.16万亿Token,全球占比达到66%,首次超越美国,三周内增速达+127%[12][14][15] - 中国AI正被全球“用起来”,调用量增长主要由海外开发者驱动,OpenRouter平台数据显示美国开发者占比约47%,中国约6%[13] 中国AI的全球竞争力与成本优势 - 中国模型在全球调用量排名中占据主导,2026年2月第三周全球前五模型中国占据四席:MiniMax M2.5 (2.57T/周)、Kimi K2.5 (1.04T/周)、智谱 GLM-5 (803B/周)、DeepSeek V3.2 (745B/周)[20] - 中国模型具备显著价格优势,例如MiniMax M2.5输入价格为0.3美元/百万Token,而Claude Opus高达15美元/百万Token,差距达数十倍[30] - 价格优势源于全链条协同降本体系,并非单一价格战,包括:1) 能源层:中国西部绿电成本0.2-0.3元/度,仅为欧美电价的约1/5[3][38];2) 算力层:液冷等技术将数据中心PUE降至1.25以下,PUE每降低0.1可节约电力成本10-15%[3][44];3) 模型层:采用MoE等高效架构,如DeepSeek-V3仅激活约5.5%参数(37B/671B),推理成本可降至GPT-4的1/36[3][47][50];4) 国产芯片适配与算力调度优化进一步降低成本[29][49] Token出海的价值链分析 - Token出海是一条典型的“价值放大链”,实现从电力到美元收入的价值跃迁,链条包括:能源层 → 算力层 → 模型层 → 应用层 → 出海层[32][33] - **能源层**:提供成本护城河,中国西部绿电成本优势显著,2026年算电协同规模预计达110太瓦时[36][37] - **算力层**:通过AIDC将电力转化为算力,液冷等高效技术是关键,到2028年预计60%数据中心将采用液冷[43] - **模型层**:通过架构创新和工程优化,将底层算力成本优势转化为模型性价比优势[45] - **应用层**:AI智能体(Agent)的兴起驱动Token需求呈指数级增长,复杂任务消耗可达普通对话的数千甚至上万倍,预计到2031年中国企业活跃智能体数量将达3.5亿,年均Token消耗增长率达135%+[3][51][55] - **出海层**:实现价值最终兑现,形成“电不出境、价值跨境”的成熟模式,中国模型全球调用量占比稳固在领先地位[36] 企业实践与商业模式 - **MiniMax**:采用“模型+应用”双轮驱动,其情感陪伴类产品Talkie全球用户超2.12亿,覆盖200+国家/地区,2025年营收同比增长+159%,海外收入占比超过70%[4][67] - **DeepSeek**:通过开源策略占领全球开发者生态,在开源模型社区下载量领先,约80%使用开源模型的AI初创公司采用了中国开源模型,其DeepSeek-V3.2模型通过完全开源和国产芯片适配实现低成本推理[4][70][73] - **Kimi与智谱**:走差异化路线。Kimi以256K超长上下文能力切入,海外收入占比>50%,但收入对少数Agent产品依赖度高[75][76]。智谱走全模态生态路线,覆盖文本、视频、语音、音乐,通过开源引流+企业付费变现,收入结构更多元[75][78] - 商业模式主要分为三类:1) 全球开发者生态的“基础设施先行,规模变现后置”模式;2) 跨境SaaS的“软件即服务,订阅创造粘性”模式;3) 海外云服务的灵活付费模式[58][59] 产业链投资机会图谱 - Token出海带来贯穿“算电协同”全产业链的系统性机会,投资机会呈现从“硬件驱动”到“价值驱动”的时序轮动[4][65] - **短期机会(硬件驱动)**:算力基础设施环节受益,包括AI服务器、GPU、光模块、液冷温控等[65] - **中期机会(效率驱动)**:算电协同与调度服务价值凸显,包括绿电运营商、电力设备、算力调度与能源管理软件[65] - **长期机会(价值驱动)**:价值向模型层和应用层集中,具备定价权和生态壁垒的头部模型厂商及垂直AI应用开发商将兑现超额收益[4][65] - A股映射主要涉及五层主线:能源层(如三峡能源、龙源电力)、电力设备层(如中国西电、国电南瑞)、算力层(如润泽科技、光环新网)、系统与调度层(如国电南瑞)、应用与出海层(如金山办公、昆仑万维)[83] 当前挑战与核心矛盾 - 中国在Token出海中面临“规模领先但价值不足”的结构性矛盾:中国公司在全球AI模型调用量中占比已接近一半,但在全球AI收入中占比相对偏低[5] - 收入转化瓶颈显著:截至2025年8月,中国AI公司收入榜总和约为12.87亿美元,仅为OpenAI年度经常性收入(ARR,174.75亿美元)的7.4%[90] - 挑战包括:1) **定价权缺失**:以低价换取市场份额;2) **客户结构问题**:海外开发者多但付费意愿低于企业客户;3) **商业模式不成熟**:API收入波动大,SaaS订阅占比低[6][91] - 面临多重风险:地缘政治限制、潜在价格战压缩利润、技术快速迭代及高端GPU供应紧张等[6][92][96] 市场认知偏差 - **偏差一**:将成本优势简单归因于电价低廉。修正:真正的壁垒是“低价绿电+超低PUE数据中心+高效模型架构+智能算力调度”构成的全链条协同降本体系[101] - **偏差二**:认为云厂商是最大受益者。修正:云厂商是重要通道,但最终价值创造与大规模变现发生在直接面向客户的模型层与应用层[102] - **偏差三**:仅关注公开API调用量。修正:忽略了通过GPU租赁、私有化部署等方式消耗的算力,全口径算力消耗更大[103]
连续三周,国产大模型调用量反超美国模型;AI预测的蛋白质复合物结构首次纳入丨AIGC日报
创业邦· 2026-03-24 08:09
AI在企业内部的应用与组织变革 - Meta首席执行官扎克伯格正在亲自开发一款CEO专属AI智能体,以辅助其工作,该智能体已能帮助他更高效地直接获取信息,无需再层层对接人员[1] - AI工具在Meta内部快速普及,部分原因在于AI应用情况已纳入员工绩效考核,公司内部氛围被形容为类似于早期“快速行动,打破陈规”的阶段[1] - Meta员工已开始使用如MyClaw等个人智能体工具,这些工具可访问员工的聊天记录与工作文件,并能代表员工与同事或其AI智能体进行沟通[1] 大模型应用生态与功能拓展 - 阿里旗下千问大模型上线打车能力,用户可通过一句话指令完成选车型、添加途经点、预约时间等操作,并支持价格上限、驾驶平稳度等个性化需求[2] - 千问在阿里生态支持下,能为用户提供订机票、酒店、打车等多场景串联服务[2] 全球大模型市场竞争格局 - 根据OpenRouter数据,在最近一周(3.16-3.22)的全球模型调用量排名中,国产大模型已连续三周超过美国模型[3] - 上周模型调用量前九名(去重后)中,国产模型占据五席,分别为小米MiMo-V2-Pro、阶跃星辰Step 3.5 Flash、MiniMax M2.5、DeepSeek V3.2、智谱GLM5 Turbo[3] - 这五款国产大模型上周总调用量达到7.359T,较此前一周的4.69T增长56.9%,且增幅呈现扩大趋势[3] AI在基础科学研究中的突破 - 蛋白质结构预测工具“阿尔法折叠”实现重要升级,其最新发布的数据集首次大规模纳入由AI预测的蛋白质复合物结构[4] - 数百万个AI预测的蛋白质复合物结构已向全球科研人员开放,这是由欧洲分子生物学实验室、谷歌DeepMind、英伟达和韩国首尔大学四方合作完成的成果[4] - 此次发布形成了迄今规模最大的蛋白质复合物预测数据集[4]
OpenAI和国产模型悄悄打起“价格战”
第一财经· 2026-03-18 18:27
OpenAI发布两款小模型GPT-5.4 mini与nano - 公司于北京时间2026年3月18日宣布推出两款小模型GPT-5.4 mini与GPT-5.4 nano,官方称其为内部“迄今为止能力最强的小模型”,旨在以更低延迟和更高性价比为智能体应用提供新选项[3] - 两款小模型能力接近旗舰模型GPT-5.4,但针对高频工作负载做了优化,标志着业界不再单纯追逐参数更大的旗舰模型,而是转向推出更多更快更省的小模型[3] 模型性能与定位 - **GPT-5.4 mini**:主打“速度与性能的平衡”,运行速度是前代的两倍以上,在多项评估中性能接近旗舰模型,针对编码、计算机使用、多模态理解和子智能体进行了优化[7] - **GPT-5.4 nano**:是最小、最便宜的GPT-5.4系列版本,性能略逊于mini,适合较轻的任务[7] - **性能数据**:GPT-5.4 mini在编程基准SWE-bench Pro上得分54.4%,接近GPT-5.4的57.7%;在计算机操控基准OSWorld-Verified上得分72.1%,接近GPT-5.4的75%;在通用智能测试GPQA Diamond中得分88.0%,与GPT-5.4的93.0%差距在5%左右[4][7][8] - **应用场景**:GPT-5.4 mini为延迟敏感场景打造,如需要即时响应的代码助手、快速完成辅助任务的子智能体、实时解析截图的计算机使用系统以及实时推理图像的多模态应用[8] 定价与成本 - **GPT-5.4 mini定价**:每百万token输入0.75美元,输出4.5美元,公司称其“仅消耗GPT-5.4配额的30%”,开发者能在Codex中以约三分之一的成本处理简单编程任务[9] - **GPT-5.4 nano定价**:每百万token输入0.2美元,输出1.25美元,价格约为mini的1/4[10] - **成本对比**:GPT-5.4 mini输出价格(4.5美元/百万token)是DeepSeek V3.2(0.42美元/百万token)的约10.7倍,是MiniMax M2.5(1.2美元/百万token)的3.75倍,也高于Kimi-K2.5(3美元/百万token)和谷歌Gemini 3 Flash(3美元/百万token)[16] 行业战略意义与智能体系统构建 - **战略意义**:此次发布是公司补齐智能体时代产品拼图的关键一步,意味着在AI进入真实业务后,模型分层会越来越重要,未来关注点是如何搭建模型系统,将不同成本和能力的任务分配给合适的模型[4][10] - **系统构建模式**:行业共识是,在智能体系统搭建中,会用一个较贵、表现较好的旗舰大模型作为“大脑”进行整体规划和复杂决策,然后将高频且简单的执行工作分配给性价比高的小模型[12] - **公司产品组合**:在Codex中,GPT-5.4等大模型负责处理规划、协作和最终判定,同时将具体的子任务并行分配给GPT-5.4 mini子智能体,例如搜索代码库、审阅大文件或处理辅助文档[13] 市场竞争与性价比争议 - **性价比对比**:在性价比方面,中国头部模型占据主导,例如DeepSeek V3.2、MiniMax-M2.5、Kimi-K2.5等模型在价格上显著低于GPT-5.4 mini,有海外开发者认为GPT-5.4 mini“发布即失败”[5][14][16] - **基准测试参考价值**:有观点认为基准测试的参考价值正在下降,真正的胜负需在实际任务中检验,开发者更看重模型在真实业务场景中的能力、稳定性与集成体验,而非单纯的价格或排名[5][17][18] - **开发者观点**:有开发者指出,价格便宜但可靠性降低的模型可能因重试和调试时间而付出更高代价,模型最重要的考量是与工具集成的效果、能否节省生产时间以及在极端情况下的稳定性[17][18]
计算机行业点评报告:政策加码算电协同,助力token出海
东吴证券· 2026-03-17 19:13
报告行业投资评级 - 增持(维持)[1] 报告核心观点 - 政策持续加码,推动算力与电力产业深度融合,形成“比特驱动瓦特、瓦特支撑比特”的智能闭环体系,为行业带来广阔发展空间 [3][8] - 绿电枢纽有效降低电力成本,使中国AI大模型在Token输出成本上具备显著国际竞争力,驱动“Token出海”规模爆发,形成“电力不出境、算力价值跨境”的新型数字贸易壁垒 [3][20] - 算电协同通过多种技术模式与商业模式落地,能有效提升数据中心内部收益率并促进绿电消纳,市场空间广阔 [14][15][17] - 投资应聚焦于在“能源-算力”闭环中具备核心价值的四类标的 [32] 根据目录总结 政策助力,推动算电产业融合升级 - 国家自2021年起逐年发布政策构筑算电协同顶层设计,2026年政府工作报告首次将“算电协同”列为新基建重点工程 [3][9][10] - 政策目标明确:到2025年新建大型数据中心PUE降至1.1以下,绿电使用率超过50%;国家枢纽节点绿电占比要求达到80% [9][14] - 算电协同作用在于提高数据中心内部收益率,推动绿电消纳,形成智能闭环体系 [14] - 据预测,2026年算电协同规模估计约有110太瓦时 [3][17] 算电协同带动算力能源行业发展 电力成本下降助力Token出海 - 中国西部枢纽节点算力中心用电成本可低至每度0.3元以下,电力成本占数据中心运营总成本的60%至70% [20] - 成本优势显著:中国模型每百万Token输入成本为0.5-1.5美元,而美国模型为2.5-10美元,差距达5倍以上 [20] - 成本优势推动中国Token出海规模爆发:2026年2月第三周,中国模型Token消耗占比达61%,首次超越美国(39%)[3][20] - 过去一年(2025年2月至2026年2月),中国模型Token消耗占比增幅达421% [3][20] 算电协同技术模式 - 主要有三种技术模式:物理直供、虚拟直供、集群直供 [3][22] - **物理直供**:在绿电富集区新建数据中心,直接铺设专用线路供电,实现“源网荷储”一体化,典型案例为宁夏中卫50万千瓦“源网荷储”光伏项目 [22] - **虚拟直供**:东部数据中心通过电力交易市场与西部绿电企业签订长期协议间接使用绿电,典型案例为芜湖数据中心“源网荷储一体化”项目,山东烟台虚拟电厂2025年1-11月累计收益2180万元,用户平均用电成本降低18% [25] - **集群直供**:在绿电富集区与算力需求区间通过特高压直流输电线路进行物理连接,典型案例为上海临港“沪闽算力集群”项目 [28][29] 算电协同商业模式 - 主要商业模式包括:合同能源管理(EMC)模式、长期购电协议(PPA)模式、能算一体化综合能源服务、虚拟电厂参与电力现货市场 [3][31] 投资建议 - 四类标的具备核心价值,共同构筑“能源-算力”闭环 [32] 1. **传统电力转型企业**:凭借能源禀赋投建数据中心,估值提升最多,相关标的包括金开新能、豫能控股、协鑫能科、东阳光等 [32][33] 2. **绿电运营商**:依托低成本新能源,为算力集群提供长期绿电供应,相关标的包括涪陵电力等 [32][34] 3. **调度软件服务商**:以算法模型实现负荷与电价的实时匹配,提升运营效率,相关标的包括国能日新、南网科技、朗新科技、国网信通、远光软件、安科瑞等 [32][34] 4. **电力工程龙头**:凭借特高压与源网荷储建设经验,夯实协同物理底座,相关标的包括中国电建、中国能建等 [32][35]
DeepSeek V4迟迟不发,中国开源王者为何越来越慢?
DeepSeek V4发布延迟与行业动态 - 文章核心观点:DeepSeek V4发布多次延期,从2026年1月推迟至4月,引发社区对其迭代速度放缓的担忧,而同期OpenAI与Anthropic则进入“月更模式”,行业竞争加剧[5][6][8][14][15][18] - 2025年是DeepSeek的“高光之年”,V3系列、R1推理模型、V3.2等版本平均每1-2个月有一次大更新,在数学和代码基准上多次局部超越闭源模型,API价格极具竞争力,其App累计下载量突破1.1亿次,周活跃用户最高逼近9700万[8][9][10][11] - 然而自2025年12月V3.2发布后,DeepSeek的迭代明显放缓,仅进行了上下文扩展至1M、API微调等小修小补,无新权重或重大功能跃升,GitHub和API更新日志也停滞不前[8][12] DeepSeek迭代放缓的潜在原因 - 技术挑战从“模型发布”升级为“系统工程”,难度陡增:V4的目标是成为Agent时代的主力,需解决模型连续执行任务的能力,其训练重点已转向Tool-Use和Agent,引入了覆盖1800+真实环境、8.5万+复杂指令的Agent训练数据,研发进入更复杂、更重的阶段[21][22][23][25] - 作为全球开源社区的标杆,DeepSeek背负巨大预期,没有犯错空间:任何一次平庸的迭代都可能引发口碑反噬,公司必须确保每次发布都是“杀招”,维持“用1/10成本达到GPT同等性能”的市场效率预期至关重要,因此一个没有明显代际差异的V4不如不发[26][27][28][29][30][31][32] - 面临资源与组织天花板的挑战,并需进行硬件生态重构:大模型竞争已进入工业化比拼阶段,比拼算力供给、数据流水线、工程团队规模等闭环能力,而DeepSeek V4据传将深度适配国产芯片,有望成为首个完全跑在国产算力生态上的大模型,这种底层适配拉长了研发周期[33][34][36][37][38][39][40] 竞争对手的快速迭代与行业格局 - OpenAI与Anthropic进入“月更模式”,持续给市场带来新能力与确定感:2025年4月至2026年3月,OpenAI迭代了4次,Anthropic迭代了2次以上,而DeepSeek大版本更新为0次[15][18] - Anthropic打法高度聚焦,将资源密集砸向Coding、Agent和企业工作流等易形成壁垒的方向,更新节奏清晰[42][43] - OpenAI采用平台化推进节奏,模型、产品和API接口同步更新,小步快跑,使用户体感始终在更新[35][42] - 短期看DeepSeek与头部厂商的差距在拉大,但V3.2在数学/代码基准上仍具竞争力,且V4传闻方向(多模态、长期记忆、代码能力跃升、国产芯片适配)具有足够杀伤力,若兑现则长期仍可一战[42]
国产大模型周调用量再超美国
第一财经· 2026-03-16 18:19
全球AI大模型调用量格局变化 - 国产AI大模型在OpenRouter平台的周调用量已连续两周超过美国大模型产品 [5] - 3月9日当周,全球模型调用量排名前九名中,国产模型占据四席并包揽前三名,整体国产模型周调用量约4.69T,较上周的4.194T环比上涨11.82% [5][6] - 同期,美国AI大模型周调用量为3.294万亿Token,环比下滑9.33%,OpenAI系列模型未进入前十 [6] 领先的国产大模型及调用数据 - 周调用量排名第一的是MiniMax M2.5,调用量为1.75T [5] - 排名第二的是阶跃星辰模型Step 3.5 Flash,调用量为1.34T [5] - 排名第三的是DeepSeek V3.2,调用量为1.04T,Kimi K2.5位列第九 [5][6] 新兴模型与行业动态 - 神秘模型Hunter Alpha引发关注,是一款为Agent用途构建的1万亿参数、支持100万Token上下文的模型,擅长长期规划和复杂推理 [6] - Hunter Alpha于3月15日获得OpenRouter日榜第一,另一款匿名模型Healer Alpha也进入日榜前十,两款模型均被OpenClaw开发者公开推荐 [7] - 智谱公司于3月16日推出面向“龙虾”场景的闭源基座模型GLM-5-Turbo,是2025年以来其发布的首个闭源模型 [7] 国产模型增长的核心驱动力 - 国产模型调用量持续上升,主要驱动力是OpenClaw等智能体(Agent)场景对模型调用需求的激增,这类任务常消耗百万级Token [7] - 性价比是国产模型受海外开发者青睐的关键因素,例如MiniMax M2.5的输入价格为每百万Token 0.3美元,输出价格为1.1美元,远低于Claude Opus 4.6的5美元和25美元 [7] - 国产模型凭借开源策略在海外市场建立了口碑与影响力 [8] 行业面临的挑战与商业化压力 - 海外模型正加速“务实”商业化,例如Gemini关停低价旧版,Claude收紧峰值TPM(每分钟Token数)限制5倍以上 [8] - 行业面临性能、开源与商业化之间的平衡问题,阿里巴巴Qwen大模型技术负责人离职事件暴露出公司营收压力与开源之间的本质矛盾 [8] - MiniMax上市后首份财报显示,2025年营收约7904万美元,同比增长159%,但年内亏损同比增加302%至18.7亿美元 [8]
暴力上涨的token背后是裁员
小熊跑的快· 2026-03-15 21:14
AI模型周度使用量排名 - 根据OpenRouter平台数百万用户真实使用数据,截至2025年3月17日当周,模型调用量排名前三的分别是:MiniMax M2.5(1.82万亿tokens)、Step 3.5 Flash(1.3万亿tokens)、Gemini 3 Flash Preview与DeepSeek V3.2(均为1.01万亿tokens)[4] - 当周调用量排名第四至第八的模型分别为:Claude Sonnet 4.6(8750亿tokens)、Claude Opus 4.6(8040亿tokens)、Grok 4.1 Fast(5700亿tokens)、Gemini 2.5 Flash(5570亿tokens)[4] - 从周度使用量增长看,部分模型环比增速显著:Step 3.5 Flash增长193%,DeepSeek V3.2增长125%,Claude Sonnet 4.6增长130%,而MiniMax M2.5增长10%,Claude Opus 4.6增长15%,Gemini 2.5 Flash增长17%[4] 中美模型市场份额变化 - 在2025年3月2日至3月8日的完整周数据中,平台总调用量为7.82万亿tokens,其中中国模型调用量达4.19万亿tokens,占比53.6%,环比增长34.9%;美国模型调用量为3.63万亿tokens,占比46.4%,环比下降8.5%[5] - 数据显示中国模型市场份额首次持续领先美国模型,且差距在扩大[5] - 当周全球前五大模型排名为:MiniMax M2.5(中国,1.87万亿tokens,环比增长15%)、Gemini 3 Flash(美国,约1.0万亿tokens)、DeepSeek V3.2(中国,0.83万亿tokens,环比增长4%)、Claude Opus 4.6(美国,数据未完整披露)、Step 3.5 Flash(中国,0.75万亿tokens,环比增长69%)[5] 行业趋势与潜在影响 - 平台模型周度总调用量呈现显著增长趋势,从2024年7月21日的4.5万亿tokens,增长至2025年3月17日的18万亿tokens[2][3] - 在AI模型使用量激增的背景下,部分大型科技公司如Meta可能进行大规模裁员,规模或达员工总数的20%甚至更多,且微软、字节跳动等公司也可能面临类似情况[6]
计算机行业周报:Token出海凸显国内AI性价比!AINative终端初现-20260314
申万宏源证券· 2026-03-14 20:18
报告行业投资评级 - 看好 [3] 报告核心观点 - 中国大模型在Agent时代凭借极高的性价比和电力成本优势,有望实现Token出海 [4][5][6] - AI Native终端作为分布式入口显现,正推动硬件交互逻辑与商业模式向“意图直达”和“硬件+AI服务订阅”转型 [4][5][28] 中国AI模型性价比与Token出海 - **中国大模型用量激增且成本优势显著**:根据OpenRouter数据,2026年3月2日至8日,平台上榜中国大模型总用量达4.19万亿Token,环比上涨34.9%,再次超过美国 [4][6] 其中,MiniMax M2.5、DeepSeek V3.2、Step3.5 Flash等中国模型位列前五 [4][6] - **国产模型成本仅为海外模型的1/6至1/10**:在OpenRouter平台上,排名靠前的国产模型如M2.5、K2.5的输入价格约为Claude 4.5的1/6至1/10 [4][6] 尽管顶尖能力尚有差距,但从可用性和性价比角度看,国产模型并不落后 [6] - **性价比源于架构创新与电力成本优势**: - **架构创新**:DeepSeek采用的Multi-Head Latent Attention (MLA) 等架构创新大幅降低了推理成本,使其成为国产模型标配,推理成本降低为原先的1/3左右 [5][11] Kimi K2.5、GLM-5等模型也延续此思路,通过极致稀疏MoE架构等技术有效降低成本 [13] - **电力成本优势**:根据测算,使用中国数据中心电力,单张B200 GPU卡每年理论可节省900美元电费 [4][14] 以2026年预计H200/B200级别芯片出货量超1500万卡计算,全球每年电价节省空间可达百亿美元 [14] - **Benchmark评分接近海外顶尖水平**:国产模型在代码能力、数学推理、逻辑推理等综合能力评分上已接近海外顶尖模型,例如DeepSeek V3.2综合能力评分为88.8,与海外Claude Sonnet 4.5的88.3和Gemini 3 Flash Preview的87.7相近 [7][8] - **电力优势输出模式**:通过优质电力设备出海,在用户推理请求密集地区支持电厂建设,或由国内云公司在东南亚等地自建数据中心,可将国内电力成本优势有效输出,终端电价成本可降低50%以上 [17][18] AI Native终端:分布式入口与商业模式变革 - **Agent成为操作系统雏形**:OpenClaw的爆火引发对AI时代产品形态的思考,未来Agent将至少包含三个层级协作:底层是OpenClaw+基础模型,中间层是基础工具与Skills衔接,最上层是Skills调用工具/API解决实际问题 [4][20] - **AI终端是触达用户的重要抓手**:AI Native终端形态将发生转变,其核心价值在于处理特定垂直工作流的深度,以突破“玩具感”,实现用户“意图直达” [5][23] - **垂直行业深度定制案例涌现**: - **金融投研**:出门问问与Alpha派合作推出“涨听”耳机,结合金融级语音转写模型与投研分析Agent,准确率近99% [20] - **工业制造**:REALWEAR发布的NAVIGATOR 520配备AI故障诊断Agent,支持高噪环境下的第一视角作业指导 [23] - **法律办公**:PLAUD发布的NOTEPIN(法律定制版)具备符合SOC2加密标准的自动存证与法律文书生成功能 [23] - **医疗护理**:研华科技发布的POC-621(AI医疗一体机)支持医学级语音识别,可自动将医患沟通转化为规范的SOAP病历 [23] - **交互逻辑与商业模式转型**: - **交互逻辑**:从“解锁-找App-点击”的“触控导航”转向通过自然语言、视线或手势的“意图直达” [4][27] - **商业模式**:从“一次性硬件买断”向“硬件+AI服务订阅”转型,厂商利润中心转向后端的Agent服务订阅 [4][28] - **未来呈现“分布式入口”态势**:未来将以人为中心形成“个人AI网络”,如眼镜负责视觉、耳机负责音频、智能戒指监测生物特征,这些设备共享同一个“影子AI”内核 [28] 科技巨头如OpenAI也正在开发无屏智能音箱、眼镜等AI终端设备,目标在2026年末或2027年初发布 [27] 推荐投资主线 报告推荐了九大投资主线及相关重点标的 [4][29][30]: - **数字经济领军**:包括海康威视、金山办公、恒生电子等 [29] - **AIGC应用**:包括金山办公、同花顺、万兴科技、润达医疗等 [30] - **AIGC算力**:包括浪潮信息、海光信息、中科曙光、寒武纪等 [30] - **数据要素**:包括税友股份、博思软件、拓尔思等 [30] - **信创弹性**:包括海光信息、太极股份、软通动力、达梦数据等 [30] - **港股核心**:包括中国软件国际、金蝶国际、联想集团等 [30] - **智联汽车**:包括德赛西威、中科创达、豪恩汽电等 [30] - **新型工业化**:包括鼎捷数智、中控技术、用友网络、柏楚电子等 [30] - **医疗信息化**:包括润达医疗、嘉和美康、创业慧康等 [30]