行业与公司 * 涉及的行业为中国互联网与人工智能(AI)行业,具体包括AI模型、云服务、AI芯片与服务器、AI智能体平台及SaaS开发商等细分领域[1] * 报告由摩根大通证券(中国)有限公司发布,分析师团队包括姚橙、陈祺、冯令天、徐文韬[4] * 报告明确覆盖并给出投资评级的公司包括:阿里巴巴、腾讯、百度、中微公司、北方华创、华勤技术、浪潮信息[1][32] 核心事件:DeepSeek V3.2发布 * DeepSeek于近期发布了DeepSeek-V3.2和V3.2-Speciale模型,作为2025年9月29日发布的实验性V3.2-Exp模型的后续产品[2] * V3.2模型保留了V3.1-Terminus的混合专家(MoE)架构主体,但引入了DeepSeek稀疏注意力机制(DSA),这是唯一的架构变动[2] * 模型被定位为“为Agent(智能体)构建的推理优先模型”,集成了“思考+工具调用”,思维链和工具调用可在单一轨迹中交错[2] * 模型在大约1,800个合成智能体环境和大约8.5万个复杂指令上进行了训练[2] * Speciale版本放宽了长度和计算限制,在多个推理基准上媲美Gemini 3.0 Pro和GPT-5级系统[2] 性能与效率提升 * DSA机制将长序列的计算复杂度从平方级(O(L²))降至准线性级(O(L·k))[3][24] * 当处理长度为128k tokens时,对比V3.1-Terminus,V3.2推理速度提升2-3倍,GPU内存占用减少约30-40%[3][24] * DeepSeek V3.2的Artificial Analysis智能指数从V3.1的大约54提高到约66,智能水平提升22%[17] * 在H800等加速器上,每个token的长上下文成本约降低50%[24] 定价冲击与成本效益 * DeepSeek V3.2实现了API结构性降价,每百万tokens的输入/输出价格分别降至0.28美元/0.42美元[3][19] * 对比V3.1 Reasoning(输入0.42美元/输出1.34美元),输入成本降低33%,输出成本降低69%[3][19] * 对比更早的R1模型(输入1.35美元/输出4.00美元),降价幅度更大[3][19] * 部分工作负载的长上下文推理成本降低了6-10倍[3][19] * 报告将此称为中国AI市场的第二波“DeepSeek冲击”,即以国内适中的价格获得接近前沿模型的开源推理能力[1][3][20] 对中国AI生态的受益者分析 云运营商 * 提供模型即服务(MaaS)的云运营商是直接受益者,例如阿里云、腾讯云和百度智能云[13] * 云供应商可以提高AI工作负载的利润率(价格相同、成本下降),或通过降价推动MaaS普及率[13] * V3.2已迅速在国内云端部署,华为云和Ascend实现了Day-0支持,寒武纪、海光、优刻得等也已集成或优化[13] * 阿里云明确指出其集成的V3.2-Exp处理长文本的成本比V3.1低[13] 国内芯片与服务器制造商 * 主要受益者包括国内芯片制造商,其次是国内GPU/服务器厂商[14] * V3.2-Exp是率先在首日便针对非CUDA生态(包括华为CANN堆栈和Ascend硬件、寒武纪vLLM-MLU、海光DTK)进行优化的国产主流前沿模型之一[1][14] * 这表明GPT-5级开源模型可以在国产加速器上高效运行,降低了中国AI买家的潜在执行风险,并可能带动增量需求[14] AI智能体平台与垂直SaaS开发商 * 对于智能体SaaS和垂直AI开发商,V3.2可以在大幅降低可变成本的情况下,提供更高智能、更长记忆引擎,改善单位经济效益[16] * V3.2的“思考+工具调用”和128k-token上下文能力面向AI助理、开发者智能体和垂直行业(编码、法律、金融、医疗保健)助理的工作流程[16] * Hugging Face和ModelScope上提供的宽松式许可开放权重模型,降低了独立SaaS构建者微调或自托管的门槛[16] 行业竞争格局与定价趋势 * DeepSeek V3.2是前沿大语言模型API的“价格颠覆者”,其定价明显低于其他具有类似智能水平的模型,将对竞争对手的token价格造成下行压力[26] * 对比中美大语言模型API,中国模型(如DeepSeek V3.2、Kimi K2 Thinking等)处于“最具吸引力”价值象限,每百万token价格低于2美元,尤其在输出方面成本效益显著[27] * 美国旗舰闭源模型(如GPT-5.1、Claude Opus 4.5等)占据更高的价格带,智能水平略胜一筹,但成本溢价明显[27] * 美国生态在绝对峰值性能上领先,但中国API在性价比方面竞争激烈,为大规模部署提供了更优的价值主张[27] 模型代际对比(V3.2 vs V3.1) * 架构与效率:V3.1使用标准的密集多头潜在注意力(MLA);V3.2引入DSA,在长上下文下大幅降低计算复杂度和成本[24] * 能力定位:V3.1是强大的混合“思考”模型,聚焦一般聊天和稳定性;V3.2是以推理为先的智能体级引擎,针对智能体行为深度训练[21][24] * 硬件生态:V3.1主要针对英伟达CUDA优化;V3.2为华为Ascend、寒武纪、海光提供了Day-0支持,标志着明确转向国产硬件自主[24]
第二波DeepSeek 冲击:V3.2 改写中国云生态与芯片生态的推理经济学