Workflow
We-Math 2.0:全新多模态数学推理数据集 × 首个综合数学知识体系
机器之心·2025-08-27 18:40

核心观点 - We-Math 2.0是一个针对多模态数学推理的系统 通过构建结构化知识体系和双向数据扩展策略提升模型推理能力[9][14][17] - 系统包含5层级知识体系覆盖491知识点和1819知识原理 并采用三维难度建模和动态调度训练增强泛化能力[9][20][26] - 实验显示MathBook-7B模型仅用10K数据量在多个测试集平均性能提升超5% 超越部分大规模数据集模型[31][32] 知识体系构建 - 知识体系按定义-定理-应用思想设计 包含5层级491知识点1819知识原理 确保概念层次清晰且相互独立[14] - 知识点覆盖小学至大学及竞赛数学 例如三角形面积细分基本公式海伦公式三角函数法等原理[14] - 构建方法融合人类专家教材维基百科设计和GPT-4o开源数据聚类 最终由专家修正形成高质量体系[14] 数据集设计 - MathBook-Standard采用一题多图和一图多题策略 每题标注多层级知识点覆盖全部1819知识原理[9][17] - 一题多图通过视觉变式提升同一知识泛化 一图多题基于同一图像设计多问题考察不同知识[17] - 全部数据手动用Geogebra专业软件渲染 确保高精度和高质量[11] 训练策略 - 训练分三阶段:先用1000条SFT数据冷启动微调改变输出范式 再通过均值奖励以知识原理单位奖惩 最后用动态调度提升泛化[10][23][26] - 动态调度根据错误类型调整数据 包含知识增量调度视觉复杂度增加辅助元素语境复杂度拓展情境[26][27][28] - 模态增量调度针对新增视觉或语境复杂度 专门训练对应样本[29] 性能结果 - MathBook-7B基于Qwen2.5-VL-7B开发 在MathVista测试集达48.7分 MathVision73.0分 We-Math48.4分 MathVerse45.2分[31] - 平均性能较Qwen2.5-VL-7B提升超5% 在MathVista和We-Math展现优异知识泛化能力[31][32] - 仅用10K数据量达到与大规模数据集模型同等效果 凸显高质量数据和知识体系高效性[32] 技术优势 - 三维难度建模从知识点数量视觉复杂度场景复杂度扩展题目 每种子题扩展7难度层级[20][21] - SFT采用自然语言CoT优于结构化推理链 少量数据即可释放强化学习潜力[40] - 模型在代数题准确率超50% 但几何题表现较差反映空间推理不足[42]