Workflow
达尔文哥德尔机(Darwin Gödel Machine)
icon
搜索文档
Meta华人实习生搞出超级智能体!自己写代码实现自我进化
量子位· 2026-03-26 09:38
文章核心观点 - Meta研究团队提出名为“超级智能体”的新一代AI架构,其结合了哥德尔机与开放式算法思想,形成“达尔文哥德尔机”,使AI不仅能优化具体任务表现,更能持续优化其自我改进的底层逻辑,实现“元学习”,并有望最终突破人类预设的算法边界[1][5][7][8] 理论基础:从哥德尔机到达尔文哥德尔机 - 哥德尔机是一种假设性的自我完善型AI,其核心思想是AI能够通过递归重写自身代码来解决问题,但前提是必须数学证明改动的净收益,这在现实中难以实现[12][13][16][17] - Meta团队提出的达尔文哥德尔机解决了上述难题,它利用基础模型提议代码改进方案,并借助开放式算法进行搜索,从而从经验上获取能提升性能的方案,构建一个不断增长且多样化的AI智能体库[18][20] - DGM的自我提升效果与算力投入正相关,获得的算力越多,效果越好[21] 超级智能体的架构与突破 - DGM存在主要适用于编程任务的限制,因其依赖任务评估与自我修改任务的“对齐”,在缺乏“自指性”的非编程领域进化链条会断裂[22][23][25][27][28] - 超级智能体突破了这一限制,它不仅能修改任务执行行为,也能修改生成未来改进建议的过程,实现了“元认知自我修改”[29][30] - 论文将超级智能体实例化为DGM-H,它整合了任务智能体与元智能体,使得“改进的方法”本身也可被改进,从而不再要求任务与修改必须对齐[31][32][38] 实验性能验证 - 在SWE-bench基准测试中,达尔文哥德尔机将其性能从20.0%自动提升至50.0%[36][37] - 在Polyglot基准测试中,DGM的性能从初始的14.2%跃升至30.7%,超过了具有代表性的人工设计智能体[42] - DGM采用开放式进化搜索策略,通过从现有智能体库中采样来并行探索多条进化路径,性能稍逊的“祖先”智能体有助于发现新方法,避免早熟收敛[41][45] 改进的迁移性与泛化能力 - DGM的改进具有广泛的迁移性,例如,针对Claude 3.5 Sonnet优化的智能体,在切换到o3-mini或Claude 3.7 Sonnet时仍能提升性能[55] - 在Polyglot基准中,于Python任务上的自我改进同样提升了其在Rust、C++、Go等不同语言任务上的表现[55]