Workflow
自进化智能体
icon
搜索文档
万字长文!首篇智能体自进化综述:迈向超级人工智能之路
自动驾驶之心· 2025-09-12 07:33
自进化智能体综述核心观点 - 大语言模型本质上是静态的 无法在面对新任务 不断进化的知识领域或动态交互环境时调整其内部参数 这已成为开放交互式环境部署的关键瓶颈[2][3] - 自进化智能体代表人工智能领域的范式转变 从扩展静态模型转向开发能够从数据 交互和经验中持续学习与适应的系统 这是通往人工超级智能(ASI)的关键路径[3][4] - 综述首次系统性地围绕三个基础维度组织该领域:进化对象(what) 进化时机(when)和进化机制(how) 为理解与设计自进化智能体提供结构化框架[3][6] 进化对象(What to Evolve) - 智能体系统可分解为四个基本进化支柱:模型(推理和行为参数) 上下文(指令和长期记忆) 工具集(外部技能创建和管理) 以及架构(系统协作结构)[19] - 进化机制涵盖策略 经验 提示 记忆 工具创建与掌握 架构选择等多个维度 不同方法在各维度有不同侧重 例如Mem0在7个维度均有进化 MAS-Zero侧重模型和经验进化[20] 进化时机(When to Evolve) - 按时间阶段分为测试时内自进化(任务执行期间实时适应)和测试时外自进化(任务完成间利用积累经验提升未来表现)[22] - 测试时内进化具有在线性 学习数据动态产生且直接针对当前问题 测试时外进化具有回顾性 作用于历史数据旨在提高任务分布预期性能[23] - 进化依赖三种基本学习范式:上下文学习(ICL) 监督微调(SFT)和强化学习(RL) 在不同时间背景下数据可用性和学习目标存在差异[23] 进化机制(How to Evolve) - 主要方法家族包括基于奖励的进化(标量奖励 自然语言反馈 外部信号) 模仿与示范学习(高质量范例学习) 以及基于群体和进化的方法(选择 变异 交叉等机制)[27] - 不同方法在反馈类型 数据源 奖励粒度 样本效率 稳定性和可扩展性等方面存在显著差异 例如基于奖励的方法对奖励设计敏感 模仿学习受示范质量影响大 群体方法资源密集但可扩展性好[29] 应用场景(Where to Evolve) - 应用系统分为通用领域进化(数字领域各种任务能力扩展)和专用领域进化(特定领域专业知识深化) 前者侧重经验迁移 后者侧重领域深化[31] - 关键应用领域包括自主软件工程 个性化教育 医疗保健和智能虚拟助手等 持续适应和进化在这些领域至关重要[10][38] 评估体系(Evaluation) - 评估需超越传统静态系统 涵盖随时间推移的适应能力 知识积累与保留 长期泛化能力以及技能迁移 同时减轻灾难性遗忘[34] - 现有基准如ScienceAgentBench(102任务) SWE-bench(2,294任务) WebShop(12,087任务)等 在任务领域 核心指标和时空范围上各有侧重[36] - 个性化评估需开发更轻量级 适应性指标和动态基准 传统ROUGE和BLEU等指标无法充分捕捉动态进化特性[39] 技术挑战与研究方向 - 泛化能力面临专业化与广泛适应性矛盾 需可扩展架构设计 跨领域适应技术(测试时扩展 推理时适应)以及持续学习与灾难性遗忘解决方案[40][42] - 安全与可控性需应对用户相关风险和环境风险 通过智能体宪法 安全训练算法和隐私保护措施实现平衡部署[43][44] - 多智能体生态系统需平衡个体与集体推理 开发高效算法和自适应框架 并建立动态评估基准反映持续适应和演变交互[45]
从物竞天择到智能进化,首篇自进化智能体综述的ASI之路
机器之心· 2025-08-12 17:51
自进化智能体综述核心框架 - 普林斯顿大学联合多所顶尖机构发布首个系统性自进化智能体综述,旨在建立统一理论框架并为实现通用人工智能(AGI)和人工超级智能(ASI)铺平道路 [2] - 提出围绕"What、When、How、Where"四个维度的完整分析框架,系统梳理前沿技术 [8] - 将智能体系统解构为四大核心组成部分:架构(Γ)、模型({ψi})、上下文({Ci})和工具集({Wi}) [9] - 自进化策略被形式化为转换函数f,输入当前智能体系统(Π)、轨迹(τ)和反馈(r),输出演化后的新系统(Π'),即Π' = f(Π, τ, r) [9] - 终极目标是构建最优自进化策略f,使智能体在连续任务上的累积效用最大化 [9] 演化内容(What to Evolve) - 模型演化包括决策策略优化(如通过自我生成挑战性任务SCA或自然语言反馈在线微调SELF、TextGrad)和经验积累学习(如Reflexion自我反思机制、RAGEN强化学习框架) [13] - 上下文演化涵盖记忆动态管理(如Mem0框架的ADD/MERGE/DELETE机制、Expel提炼可泛化规则)和指令提示自动化优化(如APE候选提示生成、DSPy可微分程序联合优化、MASS多智能体通信优化) [13] - 工具演化分为自主创造新工具(如Voyager探索式学习、Alita响应式代码生成)、已有工具精通(如LearnAct自我纠错循环)以及管理与选择(如ToolGen工具调用生成问题、AgentSquare元学习优化组件配置) [13] - 架构演化针对单智能体(如TextGrad优化工作流节点、Darwin Gödel Machine重写自身源代码)和多智能体系统(如AFlow蒙特卡洛树搜索协作流程优化、ReMA多智能体强化学习协同策略) [14] 演化时机(When to Evolve) - 测试时自进化发生在任务执行期间,例如AdaPlanner通过ICL动态修正计划、利用"self-edits"指令触发即时SFT更新模型权重、LADDER框架通过RL实现即时技能获取 [20] - 测试间自进化发生在任务执行之后,例如STaR和SiriuS通过SFT从成功或失败推理链生成训练数据实现自举式提升、RAGEN和WebRL利用RL在任务间歇期优化策略 [20] 演化方法(How to Evolve) - 基于奖励的演化利用文本反馈(如Reflexion提供自然语言改进建议)、内部奖励(如CISC利用模型置信度自我评估)、外部奖励(如工具执行成功/失败)和隐式奖励(如从模型logits提取内生奖励函数) [21] - 模仿与演示学习通过自我生成演示(如STaR)、跨智能体演示(如共享经验库学习)或混合方式学习高质量范例 [21] - 基于种群的演化方法维护多个智能体变体或团队,通过选择、变异和竞争机制探索解空间,例如Darwin Gödel Machine的开放式代码进化、EvoMAC的文本反向传播机制 [22] 应用场域(Where to Evolve) - 通用领域演化通过记忆机制(如总结历史经验形成可复用知识)、模型-智能体协同进化(如奖励模型与世界模型相互促进)和课程驱动训练(如WebRL自适应生成难度任务)拓展广泛任务能力 [25] - 特定领域演化在垂直领域深耕,例如编码领域SICA自主修改代码库、GUI领域通过真实交互学习界面操控、金融领域QuantAgent优化量化策略、医疗领域Agent Hospital提升诊断能力、教育领域PACE个性化调整教学策略 [25] 评估范式 - 提出五大评估目标:适应性(Adaptivity)、知识保留(Retention)、泛化性(Generalization)、效率(Efficiency)和安全性(Safety) [28] - 评估模式分为静态评估、短时程自适应评估和长时程终身学习评估 [28] - 适应性通过迭代步骤成功率(如65、29、247项研究)和适应速度(如Voyager)衡量;知识保留通过遗忘率(FGT)和反向迁移(BWT)衡量;效率通过Token消耗、时间支出和工具生产率衡量;安全性通过安全评分、危害评分和泄漏率等衡量 [29] - 代表性基准测试包括ScienceAgentBench(102项科学数据分析任务)、SWE-bench(2,294项软件工程任务)、OSWorld(GUI任务)、LifelongAgentBench(1,396项长时程任务)和AgentBench(1,360项通用任务) [31]
万字长文!首篇智能体自进化综述:迈向超级人工智能之路~
自动驾驶之心· 2025-08-01 07:33
自进化智能体综述核心观点 - 自进化智能体是AI领域从静态模型转向动态持续学习的关键范式转变 旨在解决LLMs在开放环境中无法实时调整参数的瓶颈问题 [2][3][5] - 研究围绕三大基础维度构建框架:进化对象(模型/记忆/工具/架构)、进化时机(测试时内/外)、进化机制(奖励/反馈/搜索等) [2][6][21] - 该领域首次系统性梳理了自进化智能体的算法、评估指标和应用场景 为人工超级智能(ASI)的实现提供路线图 [3][6][52] 进化对象(What to Evolve) - **模型进化**:通过参数微调(SFT/RL)实现推理和行为优化 如AgentGen支持策略网络动态更新 [22][24] - **记忆进化**:长期记忆模块(如Mem0)可存储历史交互数据 支持经验复用和知识迁移 [24][29] - **工具进化**:智能体自主创建/掌握新工具(如Voyager生成代码工具)以扩展能力边界 [24][42] - **架构进化**:单智能体向多智能体系统扩展(如MAS-Zero) 通过协作提升复杂任务处理能力 [24][159] 进化时机(When to Evolve) - **测试时内进化**:任务执行中实时调整(如通过ICL) 典型场景包括动态环境交互和即时错误修正 [25][26][27] - **测试时外进化**:任务间隙离线优化 含监督微调(SFT)和强化学习(RL)两种范式 需平衡计算成本与长期收益 [26][28][33] 进化机制(How to Evolve) - **奖励驱动**:利用标量奖励(如TextGrad)或自然语言反馈引导进化 需注意奖励稀疏性问题 [31][32][36] - **模仿学习**:通过高质量示范(人类/智能体生成)快速提升能力 但依赖数据多样性 [32][36] - **群体进化**:多智能体系统(如AlphaEvolve)采用选择/变异机制 促进策略创新但计算成本高 [32][36][61] 应用场景 - **通用领域**:编程(Voyager自动生成代码)、教育(个性化学习助手)等数字环境任务 [38][42] - **专业领域**:医疗(WIN-GPT电子病历分析)、科研(文献自动归纳与实验设计)等高专业性场景 [43][47] 未来挑战 - **个性化进化**:需解决冷启动问题 开发轻量级评估指标以跟踪长期用户偏好适应 [43][44] - **安全可控性**:构建"智能体宪法"框架 防止有害行为生成和隐私泄露 [49][50] - **多智能体协同**:平衡个体推理与群体决策 开发动态评估基准反映长期交互效应 [51]