形式化数学

搜索文档
大语言模型离“数学证明高手”还有多远?斯坦福、伯克利、MIT 团队提出 IneqMath 评测标准
AI前线· 2025-07-17 12:47
大语言模型数学推理能力评估 - 不等式问题可作为检验AI数学推理能力的理想工具,因其结构简单且易暴露逻辑漏洞[1] - 形式化数学系统(如Lean/Coq)虽能验证证明严谨性,但存在门槛高、自动化程度低等局限性[1] - 大语言模型在自然语言环境下表现优于形式化证明,适合开展"非正式推理"研究[4] IneqMath创新研究方法 - 斯坦福等团队提出将不等式证明拆解为"界限估计"和"关系预测"两个可验证子任务[4] - 构建包含1,252道训练题+200道奥赛级测试题的IneqMath数据集,建立自然语言与形式逻辑的桥梁[8] - 采用自然语言+LaTeX表达方式,平衡可证明性与易用性,答案具有唯一可验证性[6][7] AI裁判系统性能 - 四维度评审器(Toy Case/Logical Gap/Numerical Approximation/Computation)实现F1=0.93的高准确率[15][16] - 系统可检测71.5%答案正确但仅6%过程严谨的案例(Grok 3 mini),揭示模型"蒙答案"现象[18] - 评审器类型中Logical Gap Judge表现最佳(F1=0.96),计算验证类相对较弱(F1=0.80)[17] 模型规模与推理能力关系 - 参数增加仅提升答案准确率,对推理严谨性无显著改善[20] - 延长推理token数量对质量提升有限,存在明显瓶颈效应[23][24] - Gemini 2.5 Pro通过自我批判机制提升5%准确率,定理提示方法最高可提升10%[25] 行业应用与展望 - IneqMath框架为AI数学推理能力提供标准化评估工具[4][8] - 研究证实单纯扩大模型规模无法解决推理严谨性问题,需结合反思机制与工具使用[21][25] - 该方向发展将推动AI从"答案生成"向"过程验证"的范式转变[28][29]
大模型为何难成为「数学家」?斯坦福等揭示严谨证明中的结构性弱点
机器之心· 2025-06-22 12:26
数学推理与AI研究 - 数学证明需要逻辑闭合和严谨推理过程,不等式问题是检验模型推理能力的理想对象[1] - 当前形式化数学系统如Lean、Coq要求极高精度,难以规模化应用于中学到奥数级别的不等式问题[1] - 大语言模型在非形式化推理方面表现出色,能给出看似合理的答案并模仿人类初期思维方式[1] IneqMath创新方法 - 研究团队提出将不等式证明拆解为"界限估计"和"关系预测"两个子任务[2][7] - 构建首个奥林匹克级不等式证明基准数据集IneqMath,包含1,252道训练题目和200道测试题目[11][12] - 数据集覆盖83种定理和29个定理类别,测试集由IMO奖牌得主设计并经数学家审核[12] 评估框架 - 开发LLM-as-Judge框架,包含五种自动评审器评估模型推理严谨性[20] - 评审器系统在与人工标注对齐的任务上达到F1=0.93的表现[24] - 框架可判断模型是"碰巧答对"还是每个推理节点都正确[23] 研究发现 - 存在Soundness Gap现象:模型最终答案准确率与推理严谨性差距显著[27] - Grok 3 mini最终答案准确率71.5%,但逐步评审后骤降至6.0%[29] - 模型规模增大能提升猜测准确率,但对推理严谨性提升有限[30] - 增加推理token数仅带来轻微提升,很快进入饱和状态[32] 改进策略 - 自我批判提升策略为Gemini 2.5 Pro带来约5%的准确率提升[42] - 定理提示策略使Gemini 2.5 Pro准确率提升约10%[42] - 研究团队设立动态更新的排行榜推动模型在严谨数学推理上的进步[36] 研究团队 - 项目由斯坦福大学、麻省理工学院和加州大学伯克利分校的研究者联合完成[44] - 负责人Pan Lu是斯坦福大学博士后研究员,研究方向包括大语言模型和数学发现[45] - 合作者包括MIT博士生Alex Gu和斯坦福大学博士生Jikai Jin[46][47]
对谈 DeepSeek-Prover 核心作者辛华剑:Multi Agent 天然适合形式化数学 |Best Minds
海外独角兽· 2025-06-12 21:27
AGI与强化学习 - 实现AGI需借助"经验"媒介,即强化学习过程中积累的高质量数据,突破人类数据集限制[3] - 强化学习是AGI关键解法,AlphaProof通过RL自行"做题"积累经验,在IMO获奖,展示RL在数学等人类知识接近极限领域的突破潜力[3] - 数学证明领域半年内密集突破:AlphaProof、OpenAI o1模型、DeepSeek-Prover三部曲均展现RL在数学推理上的惊人表现[3] 形式化数学与Agent - 形式化数学用符号化方法建模和验证数学推理,将数学正确性归结为代码编译正确性[20][23] - 当代数学面临"分布式挑战",研究者间沟通成本高导致工程瓶颈,形式化数学可构建统一知识库实现中心化研究[26][30] - Lean因对前沿数学支持良好、社区活跃成为主流形式化语言,DeepSeek Prover采用后引领领域命名范式[30][34] - 形式化数学天然适配Multi-Agent,Proof Engineering Agent需具备自我规划、修复和知识积累能力,类似软件工程但更抽象[51][52] DeepSeek Prover技术演进 - Prover三部曲进展:V1验证合成数据Scaling效果,V1.5实现自然语言推理引导形式化代码,V2在671B规模实现高层次数学规划[35][37][38] - 数学RL动作空间开放无界,传统RL难以应对,LLM+RL可完成代码/数学等复杂任务[40] - 思维链扩展模型规模效应,Test Time Scaling成为可靠方向,如GPT-o系列投入更多推理预算提升结果[41] 评估与训练范式 - RL有效工作关键在Verification设定,需任务难度略高于模型当前能力,Evaluation比Training更重要[59][60] - APE-Bench基准设计聚焦Proof Engineering,要求模型处理大规模文本修改并与验证系统交互,推动从单任务向工程级能力跨越[62][63] - 合成数据在形式化数学中密集使用,AlphaProof通过问题变形/拆解从100万题扩展到1亿题,Test Time Training接近Online Learning[43][45] Certified AI与泛化 - Certified AI强调生成质量控制,通过形式化验证确保结果可靠性,数学需每一步正确,代码需通过安全性等检测[68][69] - 数学能力泛化依赖领域间共同推理模式,pre-training阶段数据配比和规则筛选是关键,如GPT-3.5因高比例代码数据提升推理[72] - 形式化方法可推广至化学、生物等依赖数理结构的领域,但需补充物理世界交互[73] 未来技术方向 - 下一个GPT-4级跨越将是具备自主规划、执行和反思能力的Agent,结合Online Learning可实现能力持续优化[80] - Reward Model演进为Reward Agent,动态收集信息判断生成正确性,解决复杂评估问题[76][77] - Pre-training仍为技术基础,虽Scaling单独难支撑跨越,但需持续融入Agent等新方法[83][84] 行业竞争格局 - AGI实现者大概率来自现有头部企业(Google/OpenAI/DeepSeek等),因需补足技术/Infra/人才积累,新入局者困难[81] - 技术发展进入积累期,o1模型与4o形成互补而非代际替代,pre-training瓶颈指单独Scaling不足,非整体重要性下降[82][83]
当AI遇上数学:大语言模型如何掀起一场形式化数学的革命? | Deep Talk
锦秋集· 2025-05-12 17:13
核心观点 - 大语言模型(LLM)与形式化数学结合正推动数学领域的范式变革,解决传统人工验证的瓶颈问题 [1][4] - 形式化数学通过严格逻辑和计算机辅助验证提升数学证明的可靠性和效率 [4][7] - 从Theorem Prover向Proof Engineering Agent转型是形式化数学的未来趋势 [11][17] - APE-Bench作为自动化证明工程基准,支持形式化数学的长期动态演进 [12][16] - LLM与形式化方法的结合将催生Certified AI,提升知识生产的可信度和效率 [17] 形式化数学的背景与挑战 - 现代数学证明规模庞大(如300页的开普勒猜想证明),传统人工验证效率低且易出错 [6] - 形式化数学通过公理系统和逻辑语言表达数学内容,借助计算机工具实现自动化验证 [8] - LLM的"幻觉"问题在数学领域尤为突出,需结合形式化方法确保生成内容的逻辑严密性 [6] 形式化定理证明的应用 - 典型案例包括Flyspeck项目(验证开普勒猜想)、液体张量实验(验证凝聚态数学引理)、PFR猜想众包验证 [13] - 形式化方法适用于数学理论证明和软件工程验证,确保逻辑一致性 [9] LLM驱动的最新进展 - AlphaProof在国际数学奥林匹克题目证明中达到银牌水平,DeepSeek-Prover V2在miniF2F基准成功率近90% [10] - LEGO-Prover项目利用LLM构建可复用的数学知识库,推动形式化数学向库级理论构建转型 [10] - 前沿研究探索LLM主动提出数学猜想和发现抽象结构的潜力 [10] Proof Engineering Agent转型 - 当前形式化工具面临人工成本高、协作效率低等问题(如Flyspeck项目耗费数十人年) [11] - 下一代工具需具备自我规划、修复和知识积累能力,支持大规模跨模块协作 [11] APE-Bench的设计与实施 - 分为三个阶段:单文件局部修改(APE-Bench I)、跨文件一致性维护(APE-Bench II)、完全自主Agent模式(APE-Bench III) [19] - 基于真实数学库(如Mathlib4)的历史修改记录,模拟实际Proof Engineering场景 [12] 未来影响与展望 - 数学领域:提升验证效率,推动理论创新和概念探索 [17] - 工业领域:应用于高安全系统(如操作系统内核、智能合约),提升安全性与可靠性 [17] - Certified AI将结合形式化验证与动态学习,成为可信的知识生产伙伴 [17]