DeepSeek更新后被吐槽变冷变傻:比20年前的青春伤感文学还让人尴尬!业内人士:这一版本类似于极速版,牺牲质量换速度

公司产品更新与性能 - 公司于2月11日对其旗舰模型进行了灰度测试,支持最高1M(百万)Token的上下文长度,相比去年8月发布的V3.1版本支持的128K有大幅提升 [1] - 实测显示,模型可一次性处理超长文本,例如能识别并处理超过24万个token的《简爱》小说文档 [1] - 此次更新版本被部分业内人士解读为“极速版”,推测其可能牺牲了部分质量以换取速度,目的是为2026年2月中旬将发布的V4版本进行最终压力测试 [6] 用户反馈与产品体验变化 - 更新后,部分用户反馈模型交互风格发生显著变化,例如不再称呼用户设定的昵称而统一称为“用户”,且深度思考模式下的角色化心理描写减少 [4] - 有用户认为模型回复变得“冷淡”、“说教”(被形容为“爹味”),或批评其输出内容风格类似“青春伤感文学”,显得尴尬 [4] - 另有用户持正面评价,认为更新后的模型变得更客观、理性,且更关注提问者的心理状态,使其交互“更像人了” [5] 技术架构与研发进展 - 公司在今年初发表的两篇论文中公开了两项创新架构:mHC(流形约束超连接)用于优化深层Transformer信息流动,提升训练稳定性和扩展性;Engram(条件记忆模块)将静态知识与动态计算解耦,旨在显著降低长上下文推理成本 [7] - V系列模型定位为追求极致综合性能的基础模型,从2024年12月的V3到2025年12月的V3.2,公司进行了快速迭代,并推出了专注于高难度数学和学术问题的特殊版本V3.2-Speciale [6] - 据科技媒体爆料,公司计划在2026年2月中旬农历新年期间推出新一代旗舰模型DeepSeek V4,预计将具备更强的代码编写能力 [6]

Seek .-DeepSeek更新后被吐槽变冷变傻:比20年前的青春伤感文学还让人尴尬!业内人士:这一版本类似于极速版,牺牲质量换速度 - Reportify