MoE)架构
搜索文档
中美大反转,中国AI调用量首超美国,A股嗨了,多板块掀涨停潮,华尔街知名分析师:中国算力路径颠覆传统认知
36氪· 2026-02-27 20:19
核心观点 - 资本市场对AI算力价值的分配逻辑发生转变,中国AI模型调用量首次超越美国,引发中美市场对算力产业链相关公司股价的剧烈分化 [1][4][16] - 英伟达在发布强劲财报后股价大跌,市值单日蒸发近2600亿美元(约1.77万亿元人民币),而A股和港股的算力租赁、云计算、电力等板块则出现涨停潮 [1][2][6] - 中国AI模型凭借高效的MoE架构和成本优势,削弱了对高端GPU的线性依赖,并催生了国产算力基础设施需求的指数级增长 [5][25][27] 市场表现分化 - **英伟达股价重挫**:当地时间2月26日,英伟达股价大跌5.5%,创下自2025年4月以来最大单日跌幅,市值蒸发近2600亿美元(约1.77万亿元人民币)[1][2][6] - **A股相关板块大涨**:2月27日,算力租赁、云计算、电力等板块掀起涨停潮 [1][2] - **算力租赁板块**:云天励飞-U 20%涨停,杰创智能涨17.71%,首都在线涨10.28%,宏景科技涨10.06%,协鑫能科涨10.02%,拓维信息涨10.00%,利通电子涨10.00% [7][8] - **云计算板块**:普元信息20%涨停,浩云科技涨超16% [8][9] - **电力板块**:珈伟新能涨19.91%涨停,南网能源、涪陵电力、协鑫能科、赣能股份、闽东电力、豫能控股、金开新能等多股10%涨停 [10][11] - **港股相关板块上涨**:金山云上涨7.54%,商汤-W上涨4.10% [2][12] 核心驱动因素:中国AI模型调用量超越美国 - **调用量历史性突破**:根据OpenRouter数据,2026年2月9日至15日当周,中国AI模型的周调用量达到4.12万亿Token,首次超越美国的2.94万亿Token [19] - **领先优势扩大**:一周后(2月16日至22日),中国模型周调用量进一步攀升至5.16万亿Token,三周内增长127% [19] - **获得全球开发者认可**:OpenRouter平台用户以海外开发者为主(美国占47.17%,中国仅占6.01%),中国模型调用量超越美国表明其成功获得全球市场青睐 [22] - **集群式崛起**:在2月16日至22日的周榜单上,全球调用量前五的模型中,中国占据四席,分别是MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7% [22] 技术架构改变算力需求逻辑 - **高效架构降低GPU依赖**:中国主流模型广泛采用的“混合专家(MoE)”架构,通过“按需激活”部分网络,大幅降低了单位Token所需的算力 [25] - **显著提升效率**:MoE架构能让推理时的显存占用降低60%,吞吐量提升高达19倍,使得Token使用量的爆发不再与英伟达GPU需求量线性挂钩 [26] - **算力路径多元化**:中国AI厂商通过更高效率的模型架构和多元化的芯片组合方案,并不依赖英伟达最顶级的GPU [26] 国产算力需求增长逻辑 - **成本优势显著**: - **模型调用成本**:中国模型如MiniMax M2.5与智谱GLM-5的输入价格为0.3美元/百万Token,而海外对标产品Claude Opus4.6价格为5美元/百万Token,是中国模型的约16.7倍 [27] - **电力成本**:AI大模型运营成本中电力占比可达60%~70%,中国西部绿色电力成本约0.2~0.3元/度,而欧美平均约1~1.5元/度,生产相同Token的成本可能仅为欧美的1/5到1/4 [27] - **需求指数级增长**:摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到330%,在5年间实现370倍的增长 [27] - **服务全球市场**:国产算力配套凭借成本、生态等优势,有望通过国产AI模型服务全球用户,打开需求上限 [28] 市场观点与机构分析 - **对英伟达的担忧**:市场焦点从短期业绩转向对AI资本支出可持续性的长期担忧,同时担忧科技巨头(亚马逊、Meta、微软、谷歌)继续大规模购买芯片的能力 [6][26] - **国产算力产业链受益**:中国AI大模型调用量提升和变现能力预期提升,将加快数据调用量增长和模型性能提升,国产算力产业链有望受益 [28] - **推理需求高速增长**:伴随中国AI应用发展,Token消耗量急剧攀升,算力推理需求高速增长,未来有持续超预期可能 [28]
中美大反转,中国AI调用量首超美国,A股嗨了,多板块掀涨停潮!华尔街知名分析师:中国算力路径颠覆传统认知
每日经济新闻· 2026-02-27 18:51
核心观点 - 中国AI模型调用量首次超越美国,全球前五模型中中国占据四席,引发资本市场对算力价值分配逻辑的重估,导致英伟达股价大跌而中国算力产业链相关股票大涨 [1][2][17] 中美资本市场表现分化 - **英伟达股价与市值**:当地时间2月26日,英伟达股价大跌5.5%,创下自2025年4月以来最大单日跌幅,市值蒸发近2600亿美元(约合人民币1.77万亿元)[1][5] - **美股芯片板块传导**:英伟达的跌幅传导至其他芯片制造商,博通、AMD和台积电股价均出现不同程度下跌 [5] - **市场情绪转变**:市场对英伟达创纪录的Q4财报(营收增长73%至681亿美元,调整后毛利率75.2%)反应悲观,焦点从短期业绩转向对AI资本支出可持续性的长期担忧 [5] - **A股与港股市场表现**:2月27日,A股和港股市场的算力租赁、云计算、电力及数据中心板块掀起涨停潮 [1][6] - **A股算力租赁板块**:云天励飞-U 20%涨停,杰创智能涨幅超过17%,首都在线、宏景科技、亿田智能等10CM涨停 [6] - **A股云计算板块**:普元信息20%涨停,浩云科技涨超16%,众诚科技、烽火通信等涨幅均超过10% [8][9] - **A股电力板块**:受算力板块利好影响,珈伟新能上涨19.91%,南网能源、涪陵电力、协鑫能科、赣能股份等8家公司10CM涨停 [11] - **港股市场表现**:金山云上涨7.54%,商汤-W上涨4.10% [1][13] 核心变量:中国AI模型调用量超越美国 - **调用量数据**:根据OpenRouter数据,2026年2月9日至15日当周,中国AI模型的周调用量达到4.12万亿Token,首次超越美国同期的2.94万亿Token [20] - **调用量增长**:一周后(2月16日至22日),中国模型周调用量进一步攀升至5.16万亿Token,三周内增长了127% [20] - **全球开发者认可**:OpenRouter平台用户中美国开发者占47.17%,中国开发者仅占6.01%,表明中国模型获得了海外开发者的广泛青睐 [24] - **硅谷初创公司采用**:硅谷寻求融资的AI初创公司中,其路演核心模型有高达80%使用中国的开源模型 [24] - **中国模型集群式崛起**:在2月16日至22日的周榜单上,全球调用量前五的模型中,中国占据四席,分别是MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2,这四款模型合计贡献了Top5总调用量的85.7% [24] 技术架构改变算力需求逻辑 - **混合专家架构应用**:中国主流模型(如DeepSeek、阿里巴巴通义千问3.5-Plus)广泛采用混合专家架构,大幅降低推理成本 [27] - **架构效率提升**:MoE架构通过“按需激活”部分专家网络,能使推理时显存占用降低60%,吞吐量提升高达19倍,削弱了Token使用量与高端GPU需求的线性关系 [28] - **对英伟达高端GPU依赖降低**:中国AI厂商通过更高效率的模型架构和多元化芯片组合方案,不依赖英伟达最顶级的GPU,全球开发者使用中国模型产生的Token并不建立在英伟达高端GPU的持续扩张之上 [28] 国产算力需求增长驱动因素 - **模型成本优势**:中国模型具有显著成本优势,例如MiniMax的M2.5与智谱的GLM-5输入价格为0.3美元/百万Token,而海外对标产品Claude Opus4.6价格为5美元/百万Token,是中国模型的约16.7倍 [29] - **电力成本优势**:AI大模型运营成本中电力成本占比达60%~70%,中国西部绿色电力成本约0.2元/度~0.3元/度,而欧美平均约1元/度~1.5元/度,生产相同Token中国成本可能仅为欧美的1/5到1/4 [29] - **需求增长预测**:摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到330%,在5年间实现370倍的增长 [29] - **产业链受益预期**:国产AI大模型调用量提升和变现能力预期提升,有望加快数据调用量增长和模型性能提升,使国产算力产业链受益 [30] - **推理需求增长**:中国Token消耗量急剧攀升,算力推理需求高速增长,未来有持续超预期可能 [30] - **服务全球用户**:国产算力配套凭借成本、生态等优势,有望通过国产AI模型服务全球用户,打开需求上限 [30]
中国AI调用量首超美国,引发冰火两重天!国产算力、云计算、数据中心掀涨停潮,英伟达一天蒸发1.77万亿
每日经济新闻· 2026-02-27 16:45
核心观点 - 全球AI算力价值分配逻辑正在发生深刻变化,中国AI模型在全球调用量上实现历史性超越,并凭借高效架构和成本优势,削弱了对英伟达高端GPU的线性依赖,同时催生了国产算力基础设施需求的指数级增长,这直接导致了中美资本市场相关板块的“冰火两重天”走势 [1][3][22][27] 市场表现对比 - **英伟达股价与市值**:尽管发布创纪录财报,但英伟达股价在2月26日大跌5.5%,创下自2025年4月以来最大单日跌幅,市值蒸发近2600亿美元(约合1.77万亿元人民币)[1][3] - **A股与港股市场表现**:2月27日,A股算力租赁、云计算、电力及数据中心板块掀起涨停潮,港股相关板块同步上涨 [1][3][11] - **算力租赁板块**:云天励飞-U 20%涨停,杰创智能涨超17%,首都在线、宏景科技等10%涨停 [4][8] - **云计算板块**:普元信息20%涨停,浩云科技涨超16%,众诚科技、烽火通信等涨幅超10% [6][8] - **电力板块**:受算力板块利好影响,珈伟新能上涨19.91%,南网能源等8家公司10%涨停 [10] - **港股市场**:金山云上涨7.54%,商汤-W上涨4.10% [1][11] 中国AI模型全球调用量突破 - **历史性超越**:根据OpenRouter数据,2026年2月9日至15日当周,中国AI模型的周调用量达到4.12万亿Token,首次超越美国同期的2.94万亿Token [16] - **优势扩大**:一周后(2月16日至22日),中国模型周调用量进一步攀升至5.16万亿Token,三周内增长127% [16] - **集群式崛起**:在2月16日至22日的周榜单上,全球调用量前五的模型中,中国占据四席(MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5、DeepSeek的V3.2),合计贡献Top5总调用量的85.7% [19] - **获得全球认可**:OpenRouter平台用户中美国开发者占47.17%,中国仅占6.01%,表明中国模型成功获得海外开发者青睐 [19] 技术架构改变算力需求逻辑 - **采用高效架构**:中国主流模型广泛采用“混合专家”(MoE)架构,通过“按需激活”部分网络,大幅降低单位Token所需算力 [25] - **显著提升效率**:MoE架构能让推理时显存占用降低60%,吞吐量提升高达19倍,使得Token使用量的爆发不再与英伟达GPU需求量线性挂钩 [25] - **摆脱高端GPU依赖**:中国AI厂商通过高效模型架构和多元化芯片组合,其算力路径不依赖英伟达最顶级GPU,全球开发者使用中国模型产生的Token并不建立在英伟达高端GPU的持续扩张之上 [26] 成本优势驱动国产算力需求 - **模型使用成本低**:中国模型具有显著成本优势,例如MiniMax的M2.5与智谱的GLM-5输入价格为0.3美元/百万Token,而海外对标产品Claude Opus4.6价格为5美元/百万Token,是中国模型的约16.7倍 [27] - **电力成本优势巨大**:AI大模型运营成本中电力占比可达60%~70%,中国西部绿色电力成本约0.2~0.3元/度,而欧美平均约1~1.5元/度,生产相同Token,中国成本可能仅为欧美的1/5到1/4 [27] - **需求指数级增长**:摩根大通预测,从2025年到2030年,中国Token消耗量的年复合增长率将达到330%,在5年间实现370倍的增长 [27] 市场预期与机构观点 - **增长逻辑转变**:市场辩论焦点已从英伟达短期业绩,转向对AI资本支出可持续性的长期担忧,开始质疑其增长天花板 [3] - **国产算力产业链受益**:中国AI大模型调用量提升和变现能力预期提升,有望加快数据调用量增长和模型性能提升,国产算力产业链将受益 [28] - **打开全球需求上限**:AI推理需求指数级扩容,国产算力凭借成本、生态等优势,有望通过国产AI模型服务全球用户,打开需求上限 [28]
斯坦福报告揭秘中国开源AI全景:本土模型能否领跑全球?
搜狐财经· 2026-01-03 21:19
报告核心观点 - 斯坦福大学HAI与DigiChina项目联合发布的政策简报指出,中国开放权重AI模型已从全球追赶者变为领跑者,并形成了一个庞大且多元的生态系统,DeepSeek仅是其中一员 [1][3][42] 行业地位与市场数据 - 在开源大模型领域,中国已从追赶者变为领跑者 [4][30][43] - 阿里巴巴旗下的Qwen模型系列于2025年9月超越Meta的Llama,成为Hugging Face平台下载量最高的大语言模型家族 [4][17][44] - 截至2025年12月中旬,Qwen累计下载量达约3.85亿次,Llama约为3.46亿次 [4][17][44] - 2024年8月至2025年8月间,中国开发者的模型下载量占Hugging Face总下载量的17.1%,首次超过美国的15.8% [4][17][44] - 2025年9月,基于中国模型的衍生版本占Hugging Face当月新增衍生模型的63% [6][19][46] 主要参与者与模型特点 - 报告重点剖析了四个具有代表性的中国模型家族 [7][20][33] - **Qwen(阿里巴巴)**:定位于多语言和多模态能力最强的通用模型,支持119种语言,采用Apache 2.0许可证开源 [7][20][33] - **DeepSeek-R1(DeepSeek)**:以推理能力见长,在数学和复杂问题求解方面表现突出,提供多个蒸馏版本 [7][20][33] - **Kimi K2(月之暗面)**:聚焦于代码生成和智能体任务,强调快速推理 [7][20][33] - **GLM-4.5(智谱AI/Z.ai)**:走均衡路线,通过多专家训练整合推理、编程和视觉能力 [7][20][33] - 性能榜单显示,中国模型(如GLM-4.6、Kimi-K2-Thinking、Qwen3-VL-235B等)在Elo、Coding等多项评分中位居前列 [8][21][34] 技术架构与驱动因素 - 中国模型普遍采用混合专家(MoE)架构,核心优势在于效率,能在有限计算资源下获得更好性能 [9][22][35] - 采用MoE架构是应对美国自2022年起对先进AI芯片实施出口管制的策略 [9][22][35] - 以DeepSeek-V3为例,总参数量高达6,710亿,但单次推理仅激活370亿参数,在保证性能的同时大幅降低运行成本 [9][22][35] - 2025年,主要模型的开源许可证策略趋向宽松,如Qwen3采用Apache 2.0,DeepSeek R1采用MIT License,以吸引全球开发者并建立学术信誉 [10][23][36] - 开放潮流影响了此前坚持闭源的玩家,百度于2025年6月将其旗舰产品文心一言(ERNIE)4.5以开放权重形式发布 [10][23][36] 政策环境与商业模式 - 中国官方在顶层设计上支持开源AI发展,2017年的《新一代人工智能发展规划》已将“开源”和“开放”列为关键词汇 [10][23][36] - 2023年10月的《全球人工智能治理倡议》和2025年7月的《全球人工智能治理行动计划》将开源AI提升至国际话语权争夺的高度 [11][24][37] - 中国开放权重AI的繁荣更多是市场竞争、人才积累和工程文化共同作用的结果,而非纯粹自上而下的规划产物 [11][24][37] - 地方政府为参与开源社区的AI组织和项目提供定向财政支持,学术机构被鼓励将开源贡献纳入科研考核 [12][25][38] - 已有不少地方公共服务部门将DeepSeek模型的本地化版本集成到相关系统中 [12][25][38] - **阿里巴巴**的商业模式是将Qwen定位为“AI操作系统”,通过企业和政府客户采用模型来带动云计算业务增长,客户包括HP、阿斯利康,新加坡国家AI计划也基于Qwen3构建旗舰模型 [12][25][38] - **DeepSeek和智谱**走轻资产路线,采取协作部署策略,为不同云和算力提供商的客户提供本地化服务 [12][25][38] - 行业目前仍依赖间接变现:通过广泛采用的开放模型培育用户基础,再将其引导至付费产品和服务 [12][25][38] 全球影响与竞争态势 - 高性能中国模型的广泛可用,为资源有限的低收入和中等收入国家提供了获取先进AI能力的新路径 [13][26][39] - 中国模型因“够好用”、许可证宽松、使用成本低而受到青睐,例如Airbnb CEO透露公司使用Qwen而非ChatGPT为客服机器人供电,原因是“又快又便宜” [13][26][39] - DeepSeek R1的发布直接改变了美国对开放权重AI的政策态度,被特朗普总统称为“警醒时刻” [14][27][40] - 2025年7月,白宫发布《美国AI行动计划》,将开放权重模型提升为战略资产,同时强调加强对中国等对手的出口管制 [14][27][40] - 2025年8月,OpenAI时隔近六年首次发布开放权重模型,Sam Altman承认中国开源模型的竞争是促使该决定的重要因素 [14][27][40] - 真正的行业竞争已演变为生态竞争、工程竞争、成本竞争与合规竞争叠加的系统战 [15][28][41]
MiniMax训练推理模型仅花384万,售价对标豆包
南方都市报· 2025-06-17 13:57
模型技术 - MiniMax发布并开源首款推理模型M1,支持100万Token的上下文输入长度,为DeepSeek R1的8倍,以及8万Token的推理输出长度[2] - M1采用混合专家(MoE)架构和"闪电注意力"机制,MoE架构可节省资源,"闪电注意力"机制优化长文本推理时的计算资源利用效率[2] - 在"闪电注意力"机制驱动下,生成10万token时,M1所需推理算力仅为DeepSeek R1的25%[2] - 长文本处理能力对AI智能体发展至关重要,可增强智能体的长期记忆力,实现多步骤操作[3] 训练与成本 - M1模型的强化学习训练阶段在512张英伟达H800 GPU上用时三周完成,租赁成本为53.47万美元(约384万元人民币)[3] - 公司以业内最低价格提供M1模型的API服务,采用区间定价策略,价格区间为0-32k、32k-128k和128k-1M,输入价格分别为0.8元/百万token、1.2元/百万token和2.4元/百万token,输出价格分别为8元/百万token、16元/百万token和24元/百万token[3] - 区间定价策略与豆包大模型1.6类似,三个区间的价格完全一致[4] - 上下文窗口长度是影响成本的关键因素,成本随长度增加而递增,企业大部分模型调用的输入长度范围在32K以内[4][5] 商业模式 - MiniMax采取纯API的商业模式,不提供定制化服务[5] - 公司内部模型团队分为文本模型、视觉模型和语音模型三大板块,每个类别下均有对应的C端产品[5] - 区间定价新模式可让多模态深度思考模型得到更广泛调用,加速AI智能体的大规模应用[5] 未来计划 - 除推理模型M1外,MiniMax预告接下来连续四个工作日会有其他更新,与语音、视频等模型相关[5]