AI自我进化

搜索文档
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
机器之心· 2025-06-14 12:12
AI自我演进研究进展 - 近期AI自我演进研究密集涌现,包括达尔文-哥德尔机(DGM)、自我奖励训练(SRT)、MM-UPT框架等多项创新成果[1] - OpenAI CEO山姆・奥特曼预测AI机器人将实现供应链自我复制,推动指数级增长,内部消息称已测试递归式自我改进AI[1] - MIT最新研究提出SEAL框架,使LLM能通过自生成训练数据更新权重,采用强化学习优化自编辑过程[2][10] SEAL技术框架 - 采用嵌套循环结构:外部RL循环优化自编辑生成,内部循环通过梯度下降更新模型参数[13] - 自编辑生成通过强化学习实现,奖励机制基于下游任务性能提升[12] - 可视为元学习实例,研究如何高效生成自编辑[15] - 支持"教师-学生"分离模式,教师模型专司生成优化编辑[26] 实验验证结果 少样本学习 - 使用Llama-3.2-1B模型在ARC测试集上,SEAL成功率72.5%,显著高于无RL自编辑(20%)和ICL(0%)[34][36] - 性能仍低于Oracle TTT(100%),显示改进空间[36] 知识整合 - 采用Qwen2.5-7B模型整合SQuAD数据,SEAL单篇文章准确度47%,持续预训练43.8%[38][39] - 相比基础模型(32.7%),合成数据训练可提升至39.7-46.3%,RL进一步优化效果[40] - 强化学习迭代产生更详细自编辑,带来性能持续改进[43] 行业影响与讨论 - 研究被视作接近"事件视界"的证据,即AI发展不可逆临界点[7] - 技术社区存在争议,部分观点认为尚未实现持续自我改进[4] - 自改进AI引发警惕,担忧潜在风险[8]