Interleaved Thinking
搜索文档
计算机行业研究:国内算力斜率陡峭
国金证券· 2026-01-11 17:14
报告行业投资评级 * 报告未明确给出统一的行业投资评级 [1][2][3][4][5][6][7][8][9][10][11][12][14][15][16][17][19][20][21][23][24][25][26][27][29][30][32][33][34][35][36][37][38][40][41][42][44][45][46][47][48][50][51][52][53][54][55][56][57][59][60][61][62][64][65][66][67][68][69][70][71][72][73][74][75][76][77][78][79][80][81][82][83][84][85][86][87] 报告核心观点 * **AI入口竞争加剧,大厂投资力度增强**:AI入口竞争已从手机扩展到“OS级智能体”与“超级APP”层面,直接触及大型互联网企业的流量与商业基本盘,预计2026年各家在模型和AI应用产品上的算力投入将进入白热化阶段 [2][45] * **国产算力持续突破,预计2026年迎来爆发**:国产通用GPU正从“可用”向“好用”升级,智算中心持续扩容,国产替代加速,叠加国内云服务提供商加速适配,为国产芯片生态建设提供了强劲动力 [5][50][55] * **国内算力产业供需两旺,增长斜率陡峭**:在模型迭代加速推升训练需求、AI终端落地增强推理需求的双重驱动下,叠加国产GPU性能提升和生态适配的供给侧支持,GPU、服务器、电源、柴发、IDC、云等六大产业环节均呈现供需两高的局面 [5][59] 根据相关目录分别进行总结 一、AI 入口之争,大厂投资力度再增强 * **中国AI全球影响力显著提升**:在全球顶级模型排名中,中国国产模型已有效改变北美单极主导格局,在全球Top 10中,GLM-4.7、DeepSeek V3.2、Kimi K2 Thinking占据3席;观测范围扩大至Top 15时,中国企业席位达6个 [2][11] * **中国开源模型占据全球主导地位**:2025年中国开源AI模型调用量约占全球市场的70%以上,其中DeepSeek与Qwen分别以14.37万亿及5.59万亿Token消耗量领跑 [2][14][16] * **中国模型在开源社区表现活跃**:2025年9月,阿里巴巴的Qwen模型家族成为Hugging Face上下载量最多的LLM家族;自2025年1月起,基于阿里巴巴和DeepSeek开源模型的衍生模型已超过基于美欧主要模型的衍生模型 [20] * **模型能力进步路径依然有效**:大模型的Scaling Law仍然有效,训练正从单一的预训练向预训练、后训练、推理深度思考三大Scaling转变;DeepSeek V3.2将后训练算力预算上调至超过预训练成本的10%,并计划进一步扩大预训练规模 [26][27][29][33] * **推理需求激增,算力消耗大幅提升**:o1类推理模型的出现,使推理阶段的计算量相对传统模型解锁了约10倍的潜力,算力需求从“训练驱动”转向“训练+推理双轮驱动” [2][37] * **硬件架构升级助力模型训练**:大模型训练的硬件基础正从英伟达Hopper架构转向Blackwell架构,后者在单卡算力、显存带宽、容量及集群互联上大幅提升,有助于训练稳定性和效率 [33][34] * **AI入口竞争白热化,流量争夺加剧**:入口竞争演变为“OS级智能体”与“超级APP”层面的较量;字节跳动旗下AI应用豆包日均活跃用户数突破1亿,千问App公测23天月活突破3000万;豆包通过“AI操作系统”模式触碰微信、支付宝等超级App的商业命门,引发后者封禁权限 [2][42][44] * **AI手机成为关键生态节点**:手机作为超级个人计算终端,是AI击穿C端的关键,将形成“大云小端”模式,进一步拉动算力需求 [47][48] 二、国产卡持续突破,2026年爆发之时 * **中国智能算力规模高速增长**:2020年中国智能算力规模为75.0 EFLOPS,预计到2028年将达到2,781.9 EFLOPS,2020-2028年复合增长率达57.1% [50] * **国产AI加速芯片市场份额提升**:2024年中国AI加速芯片市场中,英伟达、AMD合计占比71%,华为海思/沐曦/摩尔线程的市场份额已分别达到23%/1%/1% [50][51] * **国产通用GPU性能快速追赶**:国产GPU在性能指标上已基本追平英伟达A100、H20等产品,少数厂商通过先进封装等方式实现接近H100的算力;显存带宽在0.5-2 TB/s左右 [53] * **本土晶圆厂产能提供坚实保障**:以中芯国际为代表,其2025年第三季度月产能达102.28万片(折合8英寸),产能利用率达95.8%,为国产AI芯片产能提供了保障 [54] * **国内云厂商加速适配国产芯片生态**:腾讯云宣布全面适配主流国产芯片,百度、阿里等企业也在加速适配,推动“芯片-模型-应用”闭环形成 [5][55] 三、供需双高,国内算力斜率陡峭 * **AI服务器市场结构向推理倾斜**:目前AI服务器市场中训练型服务器占57.33%,推理型服务器占42.67%,预计未来推理型服务器将逐渐成为市场主流 [64] * **中国x86服务器市场集中度高且增长迅速**:2024年中国x86服务器市场规模约为393亿美元,同比增长49.7%;市场CR6分别为浪潮信息(30.8%)、超聚变(13.3%)、新华三(12.6%)、联想(9.8%)、宁畅(8.3%)、中兴(6.5%) [64][66] * **AIDC电源市场规模可观**:2024年全球AIDC电源市场规模已达约49亿美元;国内企业如麦格米特、欧陆通、中恒电气等凭借技术突破和成本优势,市场份额逐步提升 [67][68] * **柴油发电机是数据中心重要备用电源**:柴油发电机组约占数据中心基建成本的23%;2024年中国数据中心用柴发机组中,国产品牌科泰电源、泰豪科技、潍柴重机、苏美达市占率合计约为30%;同年我国数据中心用2MW柴发机组市场规模或达82亿元 [69][71][72] * **AIDC参与主体多元,商业模式以算力租赁为主**:2024年,互联网及云厂商、基础电信运营商、地方政府分别占我国AIDC算力规模份额的35.0%、25.6%、14.2%;目前算力租赁为AIDC主要商业模式 [72][73][74] * **大模型公有云调用量爆发式增长**:2024年我国公有云大模型调用量达114万亿Tokens;2025年上半年达536.7万亿Tokens,实现同比近400%的增长;市场格局方面,火山引擎、阿里云、百度智能云份额分别为49.2%、27.0%、17.0% [74][76][78] 四、相关标的 * **国内算力产业链标的**:包括寒武纪、海光信息、中科曙光、浪潮信息、中芯国际、华虹半导体、兆易创新、中微公司、兴森科技、润泽科技、百度集团、神州数码、协创数据、星环科技、大位科技、润建股份、华丰科技、禾盛新材、东山精密、亿田智能、奥飞数据、云赛智联、瑞晟智能、科华数据、潍柴重机、金山云、欧陆通、杰创智能、东阳光、大普微等 [3][79] * **海外算力/存储产业链标的**:包括中际旭创、新易盛、天孚通信、源杰科技、胜宏科技、景旺电子、英维克等;以及闪迪、铠侠、美光、SK海力士、北方华创、拓荆科技、长川科技等 [3][79]
从MiniMax到DeepSeek:为何头部大模型都在押注「交错思维」?
机器之心· 2025-12-04 14:10
文章核心观点 - MiniMax新一代大模型M2在轻量级软件工程Agent基准测试mini-SWE-agent中表现最佳,超越了其他竞品[1][2] - M2模型的核心优势在于其采用的“交错思维”技术,该技术通过将推理与工具调用交错进行,实现了“思考-行动-反思”的闭环,显著提升了Agent的执行能力、规划性和自我纠错能力[4][5] - “交错思维”技术正成为高性能Agent模型的行业标配,解决了长链路任务中的“状态漂移”问题,并已在成本效率上展现出巨大优势[22][31] 模型性能表现 - 在mini-SWE-agent基准测试中,MiniMax M2模型的表现超越DeepSeek、GLM、Qwen、Kimi等其他竞品厂商[2] - 保持前轮思维状态使M2在BrowseComp任务中性能从31.4跃升至44.0,涨幅达40.1%;在Tau²复杂工具调用测试中性能提升35.9%;在SWE-Bench Verified基准上取得3.3%的增长[25] - 在包含8步推理、7次工具调用的完整流程中,M2的总成本仅为$0.001669,比同级别Claude Sonnet便宜近12倍[31] 交错思维技术分析 - 交错思维技术核心是“思考→行动→观察→再思考”的动态循环,区别于传统的线性Chain-of-Thought模式[10][12] - 该技术从根源上解决了Agent长链路任务中的“状态漂移”问题,使计划、意图和中间结论可以跨轮次延续[16][17] - 与Memory、Long Context和RAG等技术不同,交错思维侧重于“存逻辑”而非“存事实”,类似于电脑的RAM与硬盘的区别[20] - 该技术已得到行业广泛采纳,除MiniMax外,Kimi K2、Gemini 3 Pro、DeepSeek V3.2等头部模型厂商也开始采用类似机制[22][26] 开发者生态与成本优势 - MiniMax M2发布一个多月即在实际Agent使用场景中获得开发者广泛认可,被用于构建深度研究Agent[5] - 通过提供两种主流API格式的最佳实践,确保开发者能充分利用交错思维技术[34][37] - 公司与Kilo Code、RooCode、Cline、OpenRouter、Ollama等合作伙伴合作,推动交错思维成为可复用的行业标准[38] - 开源项目Mini-Agent已获得700+ Star,社区关注度持续提高[44][45] 行业影响与标准化进程 - MiniMax M2作为国产开源模型代表,被纳入AWS的Amazon Bedrock模型库[6] - 公司正为行业构建更标准化、工程化的Agent执行范式,加速交错思维从技术特性演变为可直接调用的能力[46] - 随着高效稳定的Agentic能力展现,未来可能有更多厂商采用类似技术,推动API平台和编程工具完善相应支持[46]
从开源最强到挑战全球最强:DeepSeek新模型给出了解法
观察者网· 2025-12-02 19:38
模型发布核心信息 - 12月1日,公司发布两个正式版模型:面向日常使用的DeepSeek-V3.2和面向极致探索的DeepSeek-V3.2-Speciale [1] - DeepSeek-V3.2是9月底实验版V3.2-Exp的正式版,平衡推理能力与输出长度,适合问答场景并强化了Agent能力,官方网页端、App和API均已更新 [1][4] - Speciale版本是V3.2的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,目标是将开源模型推理能力推向极致,目前仅以临时API服务形式开放 [1] 模型性能表现 - 在公开推理测试中,V3.2已达到GPT-5水平,仅略低于Google Gemini 3 Pro,相比Kimi-K2-Thinking输出长度大幅降低,减少计算开销与用户等待时间 [6] - Speciale在多个推理基准测试中超越Gemini 3 Pro,包括美国数学邀请赛(96.0分)、哈佛MIT数学竞赛(99.2分)和IMO(84.5分) [7] - 在编程与理工科博士生测试中,Speciale仍略逊于Google顶级模型,如LiveCodeBench(88.7分)和GPQA Diamond(85.7分)低于Gemini 3 Pro的90.7分和91.9分 [7] 技术架构创新 - 公司设计了DSA(DeepSeek稀疏注意力)机制应对长文本计算量爆炸,该机制像图书管理员通过“闪电索引器”只检索关键信息,大幅降低计算复杂度 [8] - V3.2的核心亮点是“Thinking in Tool-Use”(思考型工具调用),这是AI Agent领域的“Interleaved Thinking”(交错思维链)技术的重要背书 [8][9] - 该技术将冗长、重度依赖工具的任务转化为稳定的“计划→行动→反思”循环,通过复用假设与部分结论减少多轮任务中的“状态漂移”与重复性错误 [9] 战略方向与行业定位 - 公司将“Agent能力”提升到与“推理能力”同等重要的战略位置,试图通过Agent能力将模型从“聊天机器人”进化为真正的“数字劳动力” [13] - 从经济维度看,企业真正愿意付费的是“降本增效的行动”而非“更优美的回答”,Agent使LLM从“对话式AI”进化为“动作式AI”以产生商业闭环 [13] - 公司思路已从工具转变为基础设施提供商,大模型正演变成调度工具的通用操作系统,模型是内核,Agent是用户态程序,插件则是工具 [14] 行业竞争格局 - 过去一年开源大模型生态集体爆发,阿里云Qwen系列、月之暗面Kimi、智谱GLM和MiniMax M系列均取得超越当时顶级闭源模型的成果 [1] - Google Gemini 3.0 Pro的发布重新定义了“全球最强”,其强劲性能让开源和闭源的差距瞬间又变成了一道新的天花板 [2] - 开源模型存在三个关键缺陷:对标准注意力机制的过度依赖、后训练阶段计算投入不足、Agent领域泛化能力和指令遵循能力存在明显差距 [15] 未来发展路径 - 公司计划通过增加预训练计算量填补知识空白,并优化模型推理链的“智能密度”提高效率,让模型学会“少说话、多办事” [16] - 研究员Zhibin Gou表示,训练后的瓶颈需通过优化方法和数据解决,而非仅等待更好的基础模型,持续扩大模型规模、数据量、上下文和强化学习 [17] - 公司用实打实的模型证明Scaling没死只是换了战场,当行业讨论Scaling Law是否撞墙时,公司想证明持续扩展的可能性 [19]