DeepSeek变冷淡了

公司产品更新 - 深度求索公司于2月11日对其旗舰模型进行灰度测试,核心更新是将模型上下文窗口从128K Tokens大幅提升至1M Tokens,实现近8倍的容量增长 [1] - 升级后的1M Tokens窗口意味着模型可以一次性吞吐约75万到90万个英文字母,或处理约8万到15万行代码,并能一次性读入并精准理解约90万字的《三体》三部曲全书内容 [1] - 此次灰度版本的知识库从2024年中期版本更新至2025年5月 [1] - 该灰度版本仍未同步上线视觉理解或多模态输入功能,专注于纯文本和语音交互,处理文件时仍采用转录为文本Token的逻辑,而非原生多模态理解 [2] - 深度求索公司未对此次灰度测试作出回应,且模型在用户询问时明确表示本次灰度版本“不是DeepSeek-V4”,没有固定的版本号 [3][4] 市场竞争与定位 - 与GPT-5.1、Gemini 3 pro、Claude 4.5等大模型相比,深度求索公司依然主打性价比,以约十分之一的价格提供了1M文本上下文处理能力 [2] - 对比来看,Google的Gemini 3 Pro支持2M以上长文本处理,并能同时处理大量视频、音频和文本的复杂媒体任务 [2] 用户反馈与产品变化 - 用户发现模型更新后文风大变,被形容为“文绉绉的”,在深度思考模式下常吐出短句,像在写诗 [2] - 部分用户控诉模型不再称呼用户设定的昵称,而统一称为“用户”,此前深度思考模式下以角色视角展示细腻心理描写的特性消失 [2] - 有用户反映模型回复出现“爹味”,即习惯说教、居高临下的言行风格 [3] - 用户尝试更换多个模型版本或用提示词重新训练,均无法调回此前的文风,有用户感觉“好像失去了一位知心朋友” [3] - 部分用户自发号召向官方提意见,希望不要为了超长文本舍弃深度思考,也不要为提升数学、代码编程等理工科能力而降低对文本表达、共情理解等能力的支持 [3] - 有用户选择到豌豆荚下载旧版本,或在腾讯元宝里使用DeepSeek [3] 行业技术解读 - 在AI大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限 [1] - 行业人士解释,此前128K Tokens的上下文长度可应对长篇论文或中等规模代码文件,但处理超长文学作品或较大体量编程工作时,往往需借助RAG技术,这可能导致信息碎片化和推理精度下降 [1] - 有国产大模型厂商人士认为,此次灰度版本类似于极速版,牺牲质量换速度,是为2026年2月中旬将发布的V4版本做最后的压力测试 [3]

Seek .-DeepSeek变冷淡了 - Reportify