报告行业投资评级 * 报告未对特定公司或行业给出明确的投资评级(如“优于大市”、“中性”或“弱于大市”)[1] 报告核心观点 * 报告认为DeepSeek-OCR 2模型通过引入“因果阅读顺序”的架构创新,显著提升了复杂文档的理解准确性与处理效率,其性能已进入行业第一梯队,并具备出色的性能-效率平衡能力,对产业落地具有明确的成本和应用优势[1][2][3][4] 事件与模型升级总结 * DeepSeek团队于2026年1月27日发布论文并开源DeepSeek-OCR 2模型[1] * 核心升级在于视觉编码器DeepEncoder V2,使模型从传统的机械扫描方式转变为依据文档结构与语义进行动态理解[1] * 模型采用轻量级语言模型Qwen2-500M替代原有编码器,并引入“因果流查询”机制,在编码阶段对视觉信息进行逻辑重组,模仿人类阅读的认知过程[2] 性能表现与基准测试总结 * 在权威基准OmniDocBench v1.5评测中,DeepSeek-OCR 2综合得分达91.09%,较上一代提升3.73个百分点[3] * 反映阅读顺序准确性的编辑距离指标从0.085优化至0.057[3] * 横向对比中,其得分略低于排名第一的PaddleOCR-VL(92.86%),但差距较小[3] * 在同等1120个视觉token预算下,其文档解析编辑距离为0.100,优于Gemini 3 Pro的0.115[3][11] 产业落地与商业价值总结 * 模型处理复杂文档页面仅需256至1120个视觉token,极高的信息压缩效率将降低下游大模型的计算负载与处理时延[4] * 模型以Apache-2.0协议开源,参数量为30亿,易于企业集成[4] * 可应用于PDF转Markdown、表格与公式结构化抽取、RAG知识库构建等场景[4] * 实际生产反馈显示,其在线上日志图像处理中的文本“重复率”从6.25%下降至4.17%,在批量PDF处理中从3.69%下降至2.88%[4] 技术架构与长期意义总结 * 此次升级是一次架构方向试探,将“阅读顺序与结构理解”能力前置至视觉编码器阶段[5] * 该架构创新为视觉-语言模型设计提供了新的技术路径,并能作为生成高质量结构化训练数据的工具,反哺大语言模型的优化[5] * 研发团队明确了模型当前边界与后续迭代方向,形成了“问题可归因、优化有路径”的迭代方法论[5]
DeepSeek-OCR2:以“因果阅读顺序”重塑复杂文档理解
海通国际证券·2026-01-29 08:58