清华团队提出AirScape:动作意图可控的低空世界模型,全面开源!
具身智能之心·2025-11-05 17:00
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Baining Zhao等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 人类空间感的重要组成部分之一,是对自身移动会产生的视觉观测变化的预期。这对于空间移动下的任务/动作决策至关重要。 因此,推演和想象是具身智能领域的基础问题之一,表现为预测:如果本体执行移动意图,那么具身观测将会如何变化。 现有世界模型的研究主要聚焦于人形机器人和自动驾驶应用,它们大多在二维平面上操作,动作空间有限。 具体而言,关键挑战包括: 为此,清华大学团队提出 AirScape ,专为六自由度(6DoF)空中具身智能体设计的生成式世界模型。 利用提出的 11k 视频-意图对数据集 ,对视频生成基础模型进行监督微调。这一阶段使模型获得对低空动作意图的基本理解和生成能力。 AirScape 能基于当前的低空视觉观测和动作意图,推演未来的序列观测。 项目的数据集和代码已全面开源。 低空世界模型数据集 为支撑低空世界 ...