
DeepSeek模型更新 - 线上模型升级至V3.1版本,参数量为685B,较V3版本671B略有增加但变化不明显 [2][7] - 上下文长度扩展至128K,交互友好度和稳定性提升,回答内容更符合人类表达习惯 [5][6][8] - 编程能力显著增强,在Aider Polyglot多语言测试中以71.6%得分击败Claude 4 Opus,较R1模型进一步改进 [10] - 深度思考模式不再局限于R1模型,可能调用V3/R1合并模型或其他新模型 [11][12] 模型部署优化 - V3与R1模型合并部署,从原需120张卡降至60张卡,部署成本大幅下降 [13] - 若使用120张卡部署V3.1,因缓存增大性能预估提升3-4倍,主要针对降本增效 [13] - 开源社区Huggingface已发布DeepSeek-V3.1-Base版本,支持BF16、F8_E4M3、F32数据类型 [13] 行业竞争动态 - DeepSeek R1发布后7个月内,OpenAI、Google、阿里巴巴、月之暗面、智谱等厂商均以R1为参照发布新模型 [3][16] - 阿里巴巴Qwen3-235B-A22B声称在核心能力测评中超越DeepSeek R1 [17] - 月之暗面Kimi K2与智谱GLM-4.5先后宣布超越R1,API调用价格低至输入0.8元/百万tokens [19] - DeepSeek R1发布当月用户增长达1.25亿(含网站和应用累加),80%以上用户来自1月最后一周,日活跃用户数(DAU)曾超越豆包 [14] 公司战略与市场期待 - R2模型未在此次更新中发布,8月内或无发布计划 [1][4][21] - 公司创始人梁文锋专注于打磨基础模型与探索AGI上限,对商业化及用户留存兴趣较低 [22] - 行业认为模型能力上限已较强,需聚焦经济性、可用性及稳定输出创新 [23][24] - V3.1合并部署可能为多模态模型发布做准备,预计多模态模型即将推出 [25]