Workflow
协同加速,多机器人协作不再「慢半拍」!软硬一体化框架ReCA破解具身智能落地效率瓶颈
机器之心·2025-10-10 11:47

文章核心观点 - 当前协同具身智能系统面临高昂延迟和低效协作等核心瓶颈,阻碍了其从实验室走向现实应用 [2][4] - 研究团队提出的ReCA集成加速框架通过跨层次软硬件协同优化,旨在实现智能体“实时、高效地完成”任务,而不仅仅是“完成”任务 [4][5] - ReCA框架在多个基准测试中实现了5-10倍的端到端任务加速,同时将任务成功率平均提升4.3%,为具身智能的落地奠定了基础 [24][25][28] 当前协同具身智能系统的性能瓶颈 - 系统严重依赖基于LLM的模块进行规划与通信,每一步行动都可能涉及多次LLM的顺序调用,导致高昂的规划与通信延迟 [8] - 随着智能体数量增加,去中心化系统面临通信轮次爆炸性增长,而中心化系统则因单一规划者难以处理复杂协同导致任务成功率急剧下滑,存在有限的可扩展性问题 [10] - LLM生成的高阶计划需要被精确翻译成底层控制指令,底层执行的效率和鲁棒性直接关系到任务成败,存在底层执行的敏感性挑战 [12] ReCA框架的跨层次优化方案 - 在算法层面,通过规划指导下的多步执行,让LLM一次性生成可指导连续多步动作的高阶计划,大幅减少LLM调用频率 [19] - 在系统层面,采用双重记忆结构,长期记忆存储环境静态信息,短期记忆动态刷新实时信息,有效解决LLM在长任务中的“遗忘”痛点 [18][20] - 在系统层面,通过部署本地化微调的开源LLM,摆脱对外部API的依赖,消除网络延迟瓶颈并保障数据隐私 [19] - 在系统层面,引入分层协作规划模式,在小范围“簇”内采用中心化规划,在“簇”之间采用去中心化通信,兼顾规划效率和系统规模 [21] - 在硬件层面,采用异构硬件系统,使用GPU处理高阶规划,并为路径规划等低阶任务设计专用硬件加速器(APU) [23] - 专用A-Star Processing Unit(APU)通过定制化设计,相较于GPU实现取得了4.6倍的速度提升和281倍的能效改进 [23][31] ReCA框架的性能评估结果 - 在任务步骤仅增加3.2%的情况下,实现了平均5-10倍的端到端任务加速,将原本需要近一小时的复杂任务缩短至20分钟内完成 [25] - 在大幅提升速度的同时,任务成功率平均提升了4.3%,证明了效率与性能可以兼得 [28] - 在12个智能体的大规模协作场景下,ReCA能保持80-90%的高成功率,而基线系统的成功率已跌至70%以下,展现出卓越的可扩展性 [29] 技术突破的行业影响与未来路径 - 推动研究范式从关注“成功”转向“成功且高效”,使延迟、效率和可扩展性成为衡量具身智能系统的核心指标,加速其在家庭服务、智能制造等场景的落地 [33] - 为下一代机器人“大脑”+“小脑”的设计提供可行方案,即GPU处理高阶规划、硬件加速器处理底层精确任务的异构计算模式 [33] - 突破延迟瓶颈后,将解锁机器人管家团队、灾难救援现场机器人协同、自动化科学实验室等实时协作应用场景的想象力 [34]