北大等团队用“分层小脑+仿真分身”让G1零样本上岗
具身智能之心·2025-11-15 00:03
编辑丨 量子位 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区: 具身智能之心知识星球(戳我) ,这里包含所有你想要的! 近日,来自北京大学与BeingBeyond的研究团队提出 DemoHLM 框架,为人形机器人移动操作(loco-manipulation)领域提供一种新思 路——仅需1次仿真环境中的人类演示,即可自动生成海量训练数据,实现真实人形机器人在多任务场景下的泛化操作,有效解决了传统方 法依赖硬编码、真实数据成本高、跨场景泛化差的核心痛点。 DemoHLM的核心创新在于"分层控制+单演示数据生成"双引擎,既保证了全身运动的稳定性,又实现了极低数据成本下的泛化学习。 分层控制架构:兼顾灵活性与稳定性 DemoHLM采用"低层全身控制器+高层操作策略"的分层设计,解耦"运动控制"与"任务决策": 此外,团队为机器人设计了 2DoF主动颈部+RGBD相机 (Intel RealSense D435),通过比例控制器实现"视觉追踪稳定",模仿人类操作 时的视线调节能力,避免物体遮挡导致的感知失效。 核心挑战:人 ...