Workflow
神经网络架构搜索(NAS)
icon
搜索文档
ICML 2025 Oral | NAS老树开新花,NUS提出智能体超网,成本狂降55%
机器之心· 2025-06-21 12:36
多智能体系统研究突破 - 提出"智能体超网"(Agentic Supernet)概念,通过动态剪裁实现任务定制化团队,性能超越现有方法最高11.82%,推理成本仅45% [4][13] - 解决传统多智能体系统两大困境:资源浪费(简单任务调用复杂系统)和任务冲突(单一架构无法适应多领域) [7] - 采用神经网络架构搜索(NAS)思想,实现按需分配算子组合,完成范式转移 [10][12] 技术架构创新 - 三层核心机制:定义概率化超网→控制器动态采样→双轨进化优化 [15][16][21][26] - 智能体算子库包含I/O、CoT、ReAct、Debate等模块,支持自定义扩展 [17][22] - 控制器采用MoE混合专家策略,通过激活分数阈值实现早停机制 [23][24][28] 性能表现 - 六大基准测试(GSM8K/MATH/HumanEval等)平均得分83.59%,超越14个基线模型0.54%-11.82% [32] - MATH训练成本仅3.38美元,较AFlow降低6.8倍,优化时间53分钟远低于行业水平 [33] - 推理token消耗减少55%,API调用成本下降58%,实现性能与成本双优化 [33][34] 应用前景 - 展示跨模型迁移能力(gpt-4o-mini→Qwen-2-72b/llama-3-70b)和跨数据集泛化性(MATH→GSM8K) [39] - 支持未知算子归纳学习,未经训练的Debate模块可被合理激活使用 [39] - 为全自动化AI系统提供动态架构生成方案,推动集体智能发展 [38]