Workflow
分层预测反馈机制
icon
搜索文档
深大团队让机器人听懂指令精准导航!成功率可达72.5%,推理效率提升40%|AAAI2026
量子位· 2025-12-10 12:26
UNeMo团队 投稿 量子位 | 公众号 QbitAI 让机器人听懂指令,精准导航再升级! 深圳大学李坚强教授团队最近联合北京理工莫斯科大学等机构,提出视觉-语言导航 (VLN) 新框架—— UNeMo 。 通过 多模态世界模型 与 分层预测反馈机制 ,能够让导航智能体不仅可以看到当前环境,还能预测接下来可能看到的内容,并据此做出更聪 明的决策。 相比主流方法,UNeMo可大幅度降低资源消耗,在未见过的环境中导航成功率可达72.5%,尤其是在 长轨迹导航 中表现突出。 目前,该论文已入选AAAI2026。 以下是更多详细内容。 语言推理与视觉导航的"脱节困境" 作为Embodied AI的核心任务之一,视觉-语言导航要求智能体仅凭 视觉图像 和 自然语言 指令,在未知环境中自主完成目标导航。 而随着大语言模型 (LLM) 的兴起,基于LLM的导航方法虽取得进展,但仍面临两大关键瓶颈: 优化目标冲突:推理模块与导航策略分开训练,导致两者适配性差,无法实现动态协同优化,存在性能瓶颈。 双模块协同打造"预判+决策"闭环 于是研究团队提出了UNeMo框架,其核心突破在于构建了 "多模态世界模型 (MWM) +分层预测 ...