Workflow
KAG框架
icon
搜索文档
KAG-Thinker:「结构化」思考新范式,支持逻辑严谨的大模型复杂推理
机器之心· 2025-07-08 14:54
模型发布与背景 - 蚂蚁集团知识引擎团队联合浙江大学、同济大学发布KAG-Thinker模型,聚焦复杂推理任务的结构化思考范式构建[1] - 该模型是KAG框架的重要迭代升级,旨在提升推理过程的逻辑性与稳定性[1] - 相比OpenAI的Deep Research等Model-Centric方法,KAG-Thinker通过建立分层"脚手架"解决自由发挥式推理的不严谨问题[1] 技术架构与创新 - 采用Logical Form自然语言与逻辑函数双语义表示机制,提升结构化知识利用率[3] - 提出"广度拆分+深度求解"方法:将复杂问题分解为原子问题并保持逻辑依赖关系[10] - 引入知识边界判定机制,通过无监督过程判断是否需外部检索[12][13] - 开发检索抗噪模块,过滤无关内容并提取核心信息作为答案依据[17][18] - 集成4种Logical Form求解器(Retrieval/Deduce/Math/Output)处理不同类型子问题[19][20] 性能表现 - 在7个单跳/多跳推理数据集上平均性能超越SOTA方法ReSearch达4.1%[6][24] - 单跳数据集平均提升4.5%,多跳数据集提升3.9%[25] - 与无检索基线相比,性能分别高出Naive Generation 27.1%和CoT 34.6%[23] - 集成KAG框架后,EM和F1指标较基础Thinker模型再提升3.0%和3.8%[31] 框架升级 - KAG V0.8扩展私域/公网知识库支持,新增多种基础索引类型[28] - 全面拥抱MCP协议,支持接入公网数据源及Agent流程集成[29] - 在HotpotQA等数据集上稳定性较前代提升17.9%(7B)和7.6%(72B)[33] 专业领域应用 - 医疗领域定制版KAG-Med-Thinker在MedQA任务中超越IRCoT 3.95%、ReAct 4.41%[39] - 相比Naive RAG自适应检索模型性能提升3.8%[39]