DeepSeek更新新模型 可一次性处理超长文本
产品更新与性能提升 - DeepSeek在网页端和APP端进行了版本更新,将支持的上下文长度提升至最高1M(百万)Token [1] - 此次更新相比去年8月发布的DeepSeekV3.1版本支持的128K上下文长度,实现了大幅跃升 [1] - 实测表明,模型可一次性处理超长文本,例如能成功识别并处理超过24万个token的《简爱》小说文档内容 [1][2] 未来产品路线图 - 此次更新被认为是针对V3系列模型的一次小幅更新 [1][2] - DeepSeek的下一代旗舰模型预计将是一款万亿参数级别的基础模型,是公司未来的重点产品 [1][2] - 由于模型规模大幅跃升,训练速度明显放缓,导致该旗舰模型的发布进程有所延后 [1][2]