Workflow
V3.2
icon
搜索文档
688118,4分钟20%涨停!人工智能板块,主力资金净流入超100亿!
新浪财经· 2026-02-27 12:30
市场整体表现 - 早盘A股小幅震荡,上证指数红绿转换超10次,市场成交平稳 [1] - 中证1000指数连续第4日上涨,创2017年4月以来近9年新高,深证成指与沪深300指数小幅下跌 [1] - 稀有金属、人工智能、超临界发电、酒店餐饮板块涨幅居前,玻璃玻纤、通信设备、消费电子、航空装备板块跌幅居前 [1] 超临界发电行业 - 春节后超临界发电概念持续走强,板块指数连续4日创历史新高 [2] - 多只概念股表现强势:金现代早间约6分钟垂直20%涨停,豫能控股秒速涨停并连续第7日涨停,赣能股份秒板并连续第3日涨停,华银电力1分钟涨停并连续第2日涨停 [2] - 全球首台商用超临界二氧化碳发电机组已于去年底在贵州六盘水成功商运 [4] - 贵州能源大方2×66万千瓦超超临界燃煤发电项目于今年2月上旬完成全部27项前期核准及开工手续,主厂房基础浇筑已启动 [4] - 上述项目计划2026年完成投资23.49亿元,2027年底建成投产,年发电量约60亿千瓦时,并配置新能源指标290万千瓦,推动“火电+新能源”多能互补 [4] - 中核集团50兆瓦“熔盐储能+超临界二氧化碳发电”示范项目已入选国家能源领域第五批首台(套)重大技术装备,预计2026年上半年在新疆开工,2028年完成示范应用 [4] - 超临界发电技术可与火力、核能、太阳能热、工业余热等多种热源组合,构建千瓦级至千兆瓦级的模块化、智能化发电机组 [4] - 业内人士估计,当前超临界发电市场规模已达千亿级,未来有望突破万亿级 [4] - 中金公司分析指出,超(超)临界机组通过更高压力及温度设定实现更低能耗与二氧化碳排放,达到节煤降耗、清洁环保的目标 [5] - 目前中国超(超)临界机组规划安装主要位于新疆、山西、内蒙古等煤炭资源丰富地区,未来或成为环保要求更高的沿海省份发展转型重点 [5] 人工智能行业 - 人工智能概念股早间全线走强,智谱AI、ChatGPT概念、多模态AI、AI智能体等细分板块强势上攻 [6] - 多只个股涨停:普元信息4分钟20%涨停,华胜天成、云赛智联、格尔软件、拓维信息等批量涨停 [6] - 截至午间收盘,人工智能板块获得逾117亿元主力资金净流入 [8] - 具体个股资金流向:华胜天成获逾47亿元净流入,云天励飞获逾16亿元净流入,寒武纪获逾15亿元净流入,光环新网、每日互动等也获得超亿元净流入 [8] - 近日多个省份在“新春第一会”中明确要强化人工智能技术突破和场景应用 [8] - 广东省委书记黄坤明表示,人工智能正广泛融入千行百业,引发生产方式与服务模式的革命性变化,这是重大机遇 [8] - OpenRouter平台数据显示,2月第2周,中国AI模型调用量达4.12万亿Token,首次超过同期美国模型的2.94万亿Token [8] - 2月第3周,中国模型周调用量进一步冲高至5.16万亿Token,三周大涨127%,同期美国模型调用量跌至2.7万亿Token [8] - OpenRouter平台调用量排名前五的模型中,有四款来自中国厂商,分别为MiniMax的M2.5、月之暗面的KimiK2.5、智谱的GLM-5以及DeepSeek的V3.2 [9] - 这四款中国模型合计贡献了Top5总调用量的85.7% [9]
2月井喷,中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
36氪· 2026-02-27 11:31
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量首次超过美国模型的2.94万亿Token,实现历史性赶超[1][6][7] - 随后一周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内大涨127%,而同期美国模型调用量则跌至2.7万亿Token[1][7] - 全球调用量排名前五的模型中,中国模型占据四席,显示增长动能来自厂商集群式崛起,而非单一爆款产品[1][7] 中国市场增长轨迹 - 全球大模型Token调用量在过去一年(2025年3月3日至9日至2026年2月中旬)经历了爆发式增长,平台前十大模型的周调用量从1.24万亿Token飙升至13.95万亿Token,增长超过10倍[6] - 2025年,美国模型是市场主要动力,其Token周调用量一度占据平台前十大模型总量的近七成,而中国模型占比不到两成[6] - 进入2026年,美国模型增速显露疲态,中国模型开启“狂飙”模式,2月第一周(2日至8日)调用量已跃升至2.27万亿Token[6] 领先中国模型厂商表现 - 2026年2月16日至22日周榜显示,排名前五的模型中有四款来自中国厂商:MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7%[10] - MiniMax的M2.5模型于2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总调用量激增的3.21万亿Token中,仅M2.5就贡献了1.44万亿Token增量[10] - 月之暗面的Kimi K2.5模型凭借其多模态架构和强大的Agent并行处理能力(能调度多达100个“Agent分身”),调用量连续跳涨,发布后不到一个月的累计收入已超过其2025年全年总收入[13] - 智谱的GLM-5模型自2月12日发布后,凭借其200K超长上下文窗口和对长程Agent任务的优化,调用量在上线次周便增长至0.8万亿Token[13] 中国模型厂商的市场地位与生态 - 根据a16z与OpenRouter联合发布的报告,过去一年,DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列模型以5.59万亿位居全球第二[13] - 在中国大模型B端市场,2025年下半年,千问(Qwen)系列模型的日均Token调用量占比32.1%位列第一,相较上半年的17.7%几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] - 产业形成“AI中国团”的宽广技术产业群落,有利于竞争创新和在中美AI竞争中形成集群优势,硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型[15] 中国模型的核心成本优势 - 中国模型具备显著的成本优势,在模型处理输入信息(Input)环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元每百万Token,而海外对标产品Claude Opus4.6的价格为5美元/百万Token,是中国模型的约16.7倍[16] - 在模型生成内容(Output)环节,成本差异更为悬殊:MiniMax M2.5为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[16] - 成本优势首先源于算法架构创新,以“混合专家”(MoE)架构为代表的技术路线是大幅降低推理成本的核心原因之一,采用MoE架构可直接让推理时显存占用降低60%,推理吞吐量提升高达19倍[18] 成本优势的深层驱动与产业整合 - 除了算法革新,中国AI厂商通过“垂直整合”路径进一步压缩成本,即将上层的模型算法、中层的云计算基础设施和底层的AI芯片进行深度一体化协同设计与优化,以榨干每一分算力[19] - 以阿里巴巴的“通义-云-芯”体系为例,通过极致的算力调度算法实现对底层硬件资源的最高效利用,从而大幅降低了AI服务背后的基础设施成本[19] - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在短短5年间实现370倍的增长[19] Token性质与商业模式演变 - Token正从互联网时代的“流量”,转变为AI时代的“燃料”,其消耗量的指数级攀升源于用户对AI使用模式的根本性转变,即AI从“问答工具”进化为深度参与工作流的“生产力工具”[21] - 国联民生证券提出“Token通胀”概念,指单位时间内、单位用户的Token消耗结构性上升,归因于三大趋势:需求从“问答”转向“干活”、AI Agent技术的兴起普及、以及推理强度上升[21] - 英伟达CEO黄仁勋强调“计算即收入”、“推理即收入”,指出推理性能直接决定了客户的收入能力,而推理的核心正是高效地生成可被商业化的Token,“性能/瓦特”成为关键指标[22] 未来商业模式展望 - AI服务的商业模式正从过去单纯的“按量计费”,向“燃料+成果”的混合模式演进,一方面Token单价会随技术进步和规模效应下降,另一方面企业将更愿意为直接的“成果”付费,催生更多基于订阅制的商业模式[22] - 未来AI服务的定价将走向高度定制化和灵活化,一个涵盖计算消耗、调用频次、任务复杂度(如多步推理)等多维度的动态定价体系将成为主流[23]
中国AI调用量首超美国,国产算力有望受益!科创人工智能ETF(589520)盘中拉升2.4%,云天励飞20CM涨停!
新浪财经· 2026-02-27 11:23
市场表现 - 2月27日,算力概念板块表现活跃,科创人工智能ETF(589520)场内价格盘中拉升**2.4%**,现涨**2.3%**,冲击日线2连阳 [1][8] - ETF当日成交额为**3917.04万**元,振幅为**4.21%**,最高价**0.707**元,最低价**0.678**元 [1] - ETF成份股中,云天励飞**20CM**涨停,思看科技涨超**10%**,优刻得、云从科技携手涨逾**8%**,芯原股份、亚信安全、奇安信-U、寒武纪-U等个股跟涨 [1][12] 核心驱动因素 - 全球最大AI模型API聚合平台OpenRouter数据显示,在2月9日至15日当周,中国模型调用量达到**4.12万亿**Token,首次超过同期美国模型的**2.94万亿**Token [2][9] - 该平台调用量排名前五的模型中,有四款来自中国厂商,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的**85.7%** [2][9] - 该平台用户主要由海外开发者构成,其中美国用户占比高达**47.17%**,中国开发者仅占**6.01%**,数据被认为能客观反映中国AI模型的全球吸引力 [3][10] 行业与公司分析 - 申港证券观点认为,国产AI大模型调用量提升及模型变现能力预期提升,或将加快其数据调用量增长和模型性能提升,国产算力产业链有望受益 [3][10] - 业内人士指出国际资本做多中国大模型龙头的四重逻辑:产业已迈入商业化兑现周期;龙头“出海”进度超预期;经过估值调整后,中国AI资产性价比凸显,与美股形成明显估值差;国际投行正形成共识性看多 [3][10] - 具体成份股表现方面,涨幅居前的公司包括:云天励飞-U(涨**20.00%**,总市值**396亿**元)、思看科技(涨**10.76%**,总市值**142亿**元)、优刻得-W(涨**8.51%**,总市值**192亿**元)、云从科技-UW(涨**8.25%**,总市值**177亿**元)、芯原股份(涨**6.56%**,总市值**1443亿**元)[2][9] 产品结构 - 科创人工智能ETF华宝(589520)重点布局国产AI产业链,其成份股囊括国产GPU龙头(如寒武纪)、国产ASIC龙头(如芯原股份)、AI应用龙头(如金山办公)[3][11] - 该ETF的行业配置中,半导体行业权重占比近一半,软件行业权重占比超三成,具备较强进攻性并有望受益于AI应用补涨行情 [4][11] - 该ETF是融资融券标的,被描述为一键布局国产算力的高效工具 [4][11]
2月27日投资早报|锐新科技拟购买德恒装备51%股权股票复牌,臻镭科技2025年净利润同比增长582.01%,*ST阳光申请撤销退市风险警示
新浪财经· 2026-02-27 08:36
隔夜全球主要市场表现 - A股市场三大指数于2026年2月26日集体收涨,沪指涨0.34%报3888.60点,深证成指涨0.85%报12984.08点,创业板指涨0.70%报3052.59点,个股涨多跌少,上涨个股超4100只,沪深两市全天成交额1.59万亿元,较上个交易日缩量1200亿元 [1] - 港股市场于同日高开低走,午后跌幅扩大,恒生指数跌1.44%或384.7点报26381.02点,恒生国企指数跌2.44%,恒生科技指数跌2.87%报5109.33点,全日成交额2592.77亿港元 [1] - 美股市场于当地时间2026年2月26日收盘涨跌不一,标普500指数跌0.54%报6908.86点,纳斯达克综合指数跌1.18%报22878.38点,道琼斯工业平均指数涨0.03%报49499.2点,大型科技股多数下跌,英伟达跌超5% [1] 人民币跨境同业融资业务政策 - 中国人民银行于2026年2月26日发布通知,支持境内银行按照依法合规、风险可控的原则开展人民币跨境同业融资业务 [2] - 境内中资银行、外商独资银行、中外合资银行开展相关业务应由银行总行统一管理,并按照实质重于形式的原则,将全部人民币跨境同业融资业务纳入管理范围,建立健全风险管理和内部控制机制 [2] - 境内银行向境外机构净融出人民币资金余额不得超过人民币跨境同业融资净融出余额上限,并应建立内部预警提示机制,当净融出余额达到上限的80%时进行预警提示 [2] 人工智能行业动态 - 根据全球AI模型API聚合平台OpenRouter数据,在2026年2月16日至22日当周,中国AI模型调用量冲高至5.16万亿Token,三周内大涨127%,同期美国模型调用量跌至2.7万亿Token,中国模型调用量首次超过美国 [3] - 该平台调用量排名前五的模型中,有四款来自中国厂商,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,四款模型合计贡献了Top5总调用量的85.7% [3] - 百度集团2025年第四季度营收327.4亿元人民币,环比增长5%,其中AI新业务收入超过110亿元人民币,占百度一般性业务收入的43% [3] - 百度集团第四季度智能云基础设施收入为58亿元人民币,其中AI高性能计算设施收入的订阅收入同比增长143% [3] - 百度集团第四季度非公认会计准则净利润为39亿元人民币,非公认会计准则净利润率为12%,经调整EBITDA为47亿元人民币,经调整EBITDA利润率为14% [3]
中国AI调用量首超美国 四款大模型霸榜全球前五
每日经济新闻· 2026-02-26 19:44
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量首次超越美国模型的2.94万亿Token,实现历史性赶超[1][7] - 随后一周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内大涨127%,同期美国模型调用量则降至2.7万亿Token[1][7] - 在全球最大的AI模型API聚合平台OpenRouter上,全球大模型Token周调用量在不到一年内增长超过10倍,从2025年3月初的1.24万亿Token飙升至2026年2月中旬的13.95万亿Token[6] 中国AI厂商集群式崛起 - 2026年2月16日至22日当周,全球调用量排名前五的模型中,中国模型占据四席,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2[1][10] - 这四款中国模型合计贡献了Top5总调用量的85.7%[10] - 中国模型的爆发式增长并非依赖单一产品,而是厂商集群式崛起的结果,形成了宽广的技术产业群落[1][7][15] 领先模型表现与市场动态 - MiniMax的M2.5模型于2026年2月13日发布,上线不足一周便登顶周调用量榜首,其在2月9日至15日当周贡献了平台总增量3.21万亿Token中的1.44万亿Token[10] - 月之暗面的Kimi K2.5模型发布后,其不到一个月的累计收入已超过2025年全年总收入,增长由全球付费用户及API调用量大涨推动[13] - 智谱的GLM-5模型自2月12日发布后,调用量在上线次周便增长至0.8万亿Token[13] - 根据a16z与OpenRouter的报告,过去一年DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列以5.59万亿位居第二[13] - 在中国大模型B端市场,2025年下半年千问系列模型的日均Token调用量占比为32.1%,相比上半年的17.7%几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] 中国模型的核心竞争力:极致成本优势 - 中国模型在性能比肩国际顶尖模型的同时,具备极具竞争力的成本优势[15] - 在处理输入信息环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元/百万Token,而海外对标产品Claude Opus4.6的价格为5美元/百万Token,是中国模型的约16.7倍[15] - 在生成内容环节,成本差异更悬殊:MiniMax M2.5输出价格为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[16] 成本优势的技术根源 - 以“混合专家”架构为代表的技术路线是中国模型大幅降低推理成本的核心原因之一,DeepSeek、阿里巴巴通义千问3.5-Plus等模型已广泛采用此架构[18] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,可降低推理时显存占用60%,并将推理吞吐量提升高达19倍[18] - 中国AI厂商积极探索“垂直整合”路径,将模型算法、云计算基础设施和AI芯片进行一体化协同设计与优化,以极致算力调度实现最高效的硬件资源利用,进一步压缩成本[19] AI应用范式转变与Token价值重估 - AI角色正从“问答工具”进化为深度参与工作流的“生产力工具”,驱动Token消耗量指数级攀升[19] - “Token通胀”概念被提出,指单位时间内、单位用户的Token消耗结构性上升,归因于三大趋势:需求从“问答”转向“干活”、AI Agent技术普及、以及推理强度上升[20] - Token正从互联网时代的“流量”转变为AI时代执行生产任务必不可少的“燃料”[20] - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到330%,在5年间实现370倍的增长[19] 行业商业模式与未来展望 - AI服务的商业模式正从“按量计费”向“燃料+成果”的混合模式演进,企业将更愿意为直接的“成果”付费,催生更多基于订阅制的商业模式[21] - 未来AI服务定价将走向高度定制化和灵活化,计算消耗、调用频次、任务复杂度等多维度因素将构成动态定价体系[22] - 英伟达CEO强调“计算即收入”“推理即收入”,指出推理性能直接决定客户收入能力,而“性能/瓦特”成为衡量AI服务效率与收入能力的关键指标[21] - 硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型,显示了中国模型在全球开发者中的广泛吸引力[15]
2月井喷!中国AI调用量首超美国 四款大模型霸榜全球前五 国产算力需求正经历指数级增长
每日经济新闻· 2026-02-26 19:40
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型以4.12万亿Token的调用量,首次超越同期美国模型的2.94万亿Token [1] - 次周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内增长127%,同期美国模型调用量则降至2.7万亿Token [1][7] - 全球AI模型API调用量在过去一年内(2025年3月初至2026年2月中旬)经历了超过10倍的增长,从周调用量1.24万亿Token飙升至13.95万亿Token [6] 中国模型集群式崛起与市场主导 - 在2026年2月16日至22日的周榜单中,全球调用量排名前五的模型有四款来自中国,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2 [10] - 这四款中国模型合计贡献了Top5总调用量的85.7% [10] - 中国模型的崛起并非依赖单一产品,而是厂商集群式发展的结果,在海外开发者主导的平台(美国用户占47.17%,中国用户仅占6.01%)上展现出全球吸引力 [1][3] 领先模型表现与市场格局 - **MiniMax M2.5**:于2026年2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总增量3.21万亿Token中,其单一模型贡献了1.44万亿Token [10] - **月之暗面Kimi K2.5**:发布后调用量连续跳涨,其能调度多达100个Agent并行工作,将复杂任务处理效率提升3到10倍,发布后不到一个月的累计收入已超过其2025年全年总收入 [13] - **智谱GLM-5**:发布后用户规模高速增长,上线次周调用量增长至0.8万亿Token [13] - **市场集中度**:2025年下半年,在中国大模型B端市场,阿里千问系列模型的日均Token调用量占比达32.1%,相比上半年(17.7%)几乎翻倍,领先于字节豆包(21.3%)和DeepSeek(18.4%)[14] - **全球总量**:过去一年,DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问以5.59万亿位居第二 [13] 核心竞争优势:极致的成本优势 - **输入成本**:中国头部模型如MiniMax M2.5和智谱GLM-5的输入价格均为0.3美元/百万Token,而美国主流模型Claude Opus 4.6的价格为5美元/百万Token,是前者的约16.7倍 [15] - **输出成本**:MiniMax M2.5的输出价格为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,Claude Opus 4.6则高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍 [16] - 中国模型在多项基准测试(如SWE-Bench Verified、BFCL Multi-Turn)中表现已比肩甚至超越国际顶尖模型,结合巨大成本优势,形成强大竞争力 [15][17] 技术架构创新驱动降本增效 - **混合专家模型架构**:以MoE架构为代表的技术路线是中国模型大幅降低推理成本的核心原因之一,DeepSeek、阿里通义千问等模型均已广泛采用 [18] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,可降低推理时60%的显存占用,并将推理吞吐量提升高达19倍 [18] - **垂直整合路径**:中国厂商积极探索将上层模型算法、中层云基础设施和底层AI芯片进行一体化协同优化,如阿里的“通义-云-芯”体系,通过极致算力调度进一步降低基础设施成本 [19] 行业趋势:Token从“流量”变为“燃料” - **需求质变**:AI正从“问答工具”进化为深度参与工作流的“生产力工具”,驱动单位用户Token消耗量结构性上升,即“Token通胀” [19][20] - **三大驱动力**:1) 用户需求从浅层问答转向深度“干活”(如重构代码、生成文档);2) AI Agent技术普及,多步骤调用累加Token消耗;3) 推理强度上升,更长链路的深度思考增加Token消耗 [20] - **商业模式演进**:AI服务从“按量计费”向“燃料+成果”混合模式演进,企业更愿为直接“成果”付费,催生订阅制等新模式,未来定价将向高度定制化、多维度的动态体系发展 [21][22] 市场增长预测与产业生态 - **增长预测**:摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在5年间实现370倍的增长 [19] - **产业生态**:形成“AI中国团”的宽广技术产业群落,多家头部企业并存的格局有利于竞争创新和人才生态建设,并在中美AI竞争中形成集群优势 [15] - **全球影响**:在硅谷寻求融资的AI初创公司中,其路演核心模型有高达80%使用中国的开源模型 [15]
2月井喷!中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
每日经济新闻· 2026-02-26 19:35
全球AI模型调用量格局剧变 - 2026年2月9日至15日当周,中国AI模型的Token调用量达到4.12万亿,首次超过同期美国模型的2.94万亿,实现历史性赶超[8][9] - 次周(2月16日至22日),中国模型调用量进一步冲高至5.16万亿Token,三周内增长127%,而同期美国模型调用量降至2.7万亿Token[2][9] - 全球最大的AI模型API聚合平台OpenRouter数据显示,其前十大模型的周调用量从2025年3月初的1.24万亿Token飙升至2026年2月中旬的13.95万亿Token,不到一年增长超过10倍[8] 中国模型集群式崛起与市场主导 - 在2026年2月16日至22日的周榜单中,全球调用量排名前五的模型中有四款来自中国,分别为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7%[12] - 中国模型的增长动能并非依赖单一产品,而是厂商集群式崛起[2][9] - 在OpenRouter平台用户以海外开发者为主(美国占47.17%,中国仅占6.01%)的背景下,此数据客观反映了中国AI模型在全球范围内的真实吸引力[5] 领先模型表现与市场格局 - MiniMax的M2.5模型于2026年2月13日发布,上线不足一周便登顶周调用量榜首,在2月9日至15日当周平台总调用量激增的3.21万亿Token中,仅M2.5一款模型就贡献了1.44万亿Token增量[12] - 月之暗面的Kimi K2.5模型能调度多达100个“Agent分身”并行工作,将复杂任务处理效率提升3到10倍,发布后不到一个月的累计收入已超过其2025年全年总收入[15] - 根据a16z与OpenRouter的联合报告,过去一年DeepSeek全系列模型总Token调用量以14.37万亿位居全球第一,阿里千问全系列以5.59万亿位居第二[15] - 在中国大模型B端市场,2025年下半年千问(Qwen)系列模型的日均Token调用量占比为32.1%,位列第一,相比上半年(17.7%)几乎翻倍[16] 显著的成本竞争优势 - 中国模型具备极强的成本优势,以OpenRouter平台价格为例,在输入环节,MiniMax M2.5与智谱GLM-5的价格均为0.3美元/百万Token,而海外对标产品Claude Opus4.6为5美元/百万Token,是前者的约16.7倍[18] - 在输出环节,成本差异更为悬殊:MiniMax M2.5为1.1美元/百万Token,智谱GLM-5为2.55美元/百万Token,而Claude Opus4.6高达25美元/百万Token,分别是前两者的约22.7倍和9.8倍[18] - 中国模型在多个基准测试中表现比肩甚至超越国际顶尖模型,如MiniMax M2.5在SWE-Bench Verified测试中得分为0.802,与Claude Opus4.6的0.808相近[19] 技术架构创新驱动降本增效 - 以“混合专家”(MoE)架构为代表的技术路线是中国模型能够大幅降低推理成本的核心原因之一,DeepSeek、阿里巴巴的通义千问3.5-Plus等模型已广泛采用该架构[20] - MoE架构通过“按需激活”专家网络,相较于传统稠密模型,能极大减少计算量和硬件资源需求,数据显示采用MoE架构可直接让推理时显存占用降低60%,推理吞吐量提升高达19倍[20] - 中国AI厂商积极探索“垂直整合”路径,将模型算法、云计算基础设施和AI芯片进行深度一体化协同设计与优化,以极致算力调度算法实现硬件资源最高效利用,进一步降低基础设施成本[21] Token消耗增长驱动与商业模式演进 - 摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到惊人的330%,在5年间实现370倍的增长[21] - AI角色正从“问答工具”进化为“生产力工具”,用户核心需求从浅层“问答”转向深度“干活”,导致“Token通胀”,即单位用户Token消耗结构性上升[22] - AI Agent技术的兴起和普及,以及推理强度的上升,进一步放大了Token的消耗[22] - AI服务商业模式正从“按量计费”向“燃料+成果”混合模式演进,未来定价将走向高度定制化和灵活化,形成多维度、动态的定价体系[23][24] 产业生态与全球影响 - 产业市场形成由多家头部企业构成的“AI中国团”宽广技术产业群落,有利于竞争创新和人才生态建设,并在中美AI竞争中形成集群优势[17] - 知名风投机构a16z的合伙人观察到,在硅谷寻求融资的AI初创公司中,其路演核心模型高达80%使用中国的开源模型[17] - Token正从互联网“流量”转变为AI时代执行生产任务必不可少的“燃料”,推理性能直接决定客户的收入能力[23]
DeepSeek更新后被吐槽变冷变傻:比20年前的青春伤感文学还让人尴尬!业内人士:这一版本类似于极速版,牺牲质量换速度
每日经济新闻· 2026-02-13 00:42
公司产品更新与性能 - 公司于2月11日对其旗舰模型进行了灰度测试,支持最高1M(百万)Token的上下文长度,相比去年8月发布的V3.1版本支持的128K有大幅提升 [1] - 实测显示,模型可一次性处理超长文本,例如能识别并处理超过24万个token的《简爱》小说文档 [1] - 此次更新版本被部分业内人士解读为“极速版”,推测其可能牺牲了部分质量以换取速度,目的是为2026年2月中旬将发布的V4版本进行最终压力测试 [6] 用户反馈与产品体验变化 - 更新后,部分用户反馈模型交互风格发生显著变化,例如不再称呼用户设定的昵称而统一称为“用户”,且深度思考模式下的角色化心理描写减少 [4] - 有用户认为模型回复变得“冷淡”、“说教”(被形容为“爹味”),或批评其输出内容风格类似“青春伤感文学”,显得尴尬 [4] - 另有用户持正面评价,认为更新后的模型变得更客观、理性,且更关注提问者的心理状态,使其交互“更像人了” [5] 技术架构与研发进展 - 公司在今年初发表的两篇论文中公开了两项创新架构:mHC(流形约束超连接)用于优化深层Transformer信息流动,提升训练稳定性和扩展性;Engram(条件记忆模块)将静态知识与动态计算解耦,旨在显著降低长上下文推理成本 [7] - V系列模型定位为追求极致综合性能的基础模型,从2024年12月的V3到2025年12月的V3.2,公司进行了快速迭代,并推出了专注于高难度数学和学术问题的特殊版本V3.2-Speciale [6] - 据科技媒体爆料,公司计划在2026年2月中旬农历新年期间推出新一代旗舰模型DeepSeek V4,预计将具备更强的代码编写能力 [6]
DeepSeek上新mHC,R2还远吗?
钛媒体APP· 2026-01-04 14:05
文章核心观点 - DeepSeek于2026年初发布名为mHC的新型神经网络架构优化方案,该方案旨在解决其前身Hyper-Connections在大模型训练中的稳定性与可扩展性问题,通过引入“流形约束”实现更稳定、快速且经济的训练,可能引发AI底层架构的连锁反应并对AI芯片生态产生影响 [1][5][9] mHC架构的技术原理与创新 - mHC架构建立在字节豆包团队2024年11月发布的Hyper-Connections基础上,核心创新在于引入Manifold-Constrained,通过Sinkhorn-Knopp算法将残差映射矩阵投影到“双随机矩阵”构成的Birkhoff多面体上,为信号传播加上稳定器,确保信号均值不变、总量守恒 [5] - 该方案旨在解决HC在大模型训练中因残差连接通道间交互导致的信号爆炸或消失、训练不稳定、可扩展性降低及成本升高的问题 [5] mHC架构的性能表现 - 在270亿参数级别的训练演示中,HC在训练至约1.2万步时信号放大倍数暴增至3000倍导致训练崩溃,而mHC在同等训练下信号放大倍数仅为1.6倍,全程平稳运行 [6] - 相较于传统架构,mHC训练时损失显著下降,在BBH数据集评测的困难任务推理能力和DROP数据集评测的阅读理解表现均提升2%以上 [6] - 在残差通道扩展4倍后,mHC的额外训练时间开销仅为6.7%,体现了高性价比和效率优先的特点 [8] - 实验证明mHC在大规模训练中表现稳定、性能优越且具备良好可扩展性 [8] 对AI行业与架构发展的潜在影响 - mHC被视为一种底层创新,可能引发AI领域的连锁反应,竞争对手可能着手开发类似架构 [9] - 在DeepSeek发布论文次日,普林斯顿和UCLA的研究团队即提出了名为Deep Delta Learning的架构,同样旨在更新ResNet基本架构 [9] - 接连涌现的新研究提升了业界对2026年大模型架构产生重大范式更新和迭代的期待 [10] - 相关研究成果预计会在DeepSeek后续的新模型(如备受期待的R2或通用模型V4)中有所体现 [10] 对AI芯片生态的影响 - mHC架构依赖FP32高精度计算格式,对内存带宽和高速互联带宽提出更高要求,尤需高端芯片支持 [11] - 目前该架构主要针对英伟达超节点链路设计,更适配英伟达生态,对国产芯片兼容性较弱 [11] - 若该架构规模化铺开,英伟达的生态短期内会得到优势强化,而国产芯片需着力强化编译层适配 [11] - 长期来看,供应mHC架构的AI芯片需要提升存储带宽并转向更精细化设计 [11] - 2025年英伟达等美国AI芯片淡出中国市场后,国产芯片替代加速,华为昇腾、摩尔线程等已宣布适配DeepSeek大模型,但其精度格式仍与英伟达有差距 [12] - 在国产芯片生态突围中,与DeepSeek等领先大模型的深度耦合被认为至关重要 [12] 公司背景与研究实力 - 论文作者署名多达19人,核心作者为解振达、韦毅轩、曹焕奇,前两者为清华大学高等研究院博士,DeepSeek创始人兼CEO梁文锋名字列于最后 [8] - 自2024年1月的LLM论文至今,DeepSeek在HuggingFace上共发布23篇重要论文,其中11篇有梁文锋署名,包括MoE、Coder、R1、V3等节点性重要成果 [8]