Workflow
机器人训练
icon
搜索文档
清华陈建宇团队× 斯坦福Chelsea课题组推出 Ctrl-World 可控世界模型,让机器人在想象中迭代
机器人大讲堂· 2025-10-30 18:18
研究背景与动机 - 当前视觉-语言-动作模型在开放世界面临策略评估成本高和策略迭代数据不足两大难题[7] - 真实测试中机械臂故障率约5%-8%,单轮测试物体损耗成本超千元,评估周期常达数天[8] - 在含95k轨迹的DROID数据集上训练的主流模型面对陌生指令时成功率仅38.7%,标注100条高质量轨迹需20小时成本超万元[8] - 传统世界模型存在单视角幻觉、动作控制不精细、长时一致性差三大痛点,10秒预演后偏差失去参考价值[8] 技术方案创新 - Ctrl-World通过多视角联合预测解决视野盲区,结合第三人称与腕部视图实现跨视角空间关系对齐[11][13] - 帧级动作控制将机器人动作序列转化为姿态参数,通过交叉注意力实现厘米级精准操控,PSNR达23.56[15][16] - 姿态条件记忆检索机制通过稀疏采样和姿态锚定检索,使20秒长时预演FVD指标仅97.4,远低于基线模型156.4[17][19] - 模型使用零真机数据,通过三大创新将被动视频生成转化为可与VLA策略闭环交互的模拟器[1][9] 实验验证结果 - 在256个随机剪辑测试中,Ctrl-World的PSNR达23.56,SSIM达0.828,LPIPS仅0.091,全面领先基线模型[21] - 虚拟预演的指令跟随率与真实世界相关系数达0.87,任务成功率相关系数达0.81,评估周期从周级缩短至小时级[24] - 通过400条虚拟轨迹微调后,策略在空间理解任务成功率从28.75%升至87.5%,新物体抓取成功率从25%升至75%[26] - 综合陌生场景任务成功率从38.7%提升至83.4%,平均改进幅度达44.7%,成本仅为传统方法的1/20[1][26] 应用前景与行业影响 - 该技术可降低工业机械臂调试成本,单生产线调试周期从1周缩至1天,快速适配个性化任务[28] - 模型未来计划结合强化学习与扩大数据集,提升对厨房油污、户外光照等复杂场景的适配能力[27] - 成果重塑机器人训练底层逻辑,从物理资源消耗转向虚拟预演闭环,推动人形机器人走向开放世界[28]
VR老师手把手教学!百台机器人排队等“入职”
央视新闻客户端· 2025-10-22 15:26
不久前,我国最大的人形机器人训练场在北京正式启用。各类人形机器人可以在这里进行"培训",给未来规模化应用做准备。 这个训练场长啥样?机器人又是如何在这学到本领的?来看记者的探访↓↓↓ 0:00 在北京市石景山全国最大的人形机器人数据训练中心,这里相当于人形机器人的"技能培训学校"。和人一样,机器人也得先选学科选专业,可以选择工业智 造、生活服务、智慧康养等16个细分领域的专业。 这所学校足足有14000平方米,为什么机器人上课需要这么大的场地呢?因为这里每一处都是1∶1还原生产生活中的真实作业场景。 生活服务场景,有超市货架、快递柜、各种家具等。机器人可以学习叠衣服、扔垃圾、从货架拿商品等动作。 工业智造展区,搭建了电子产品产线、汽车装备生产车间等。 这里不仅课程丰富,师资力量也很雄厚。每个机器人都配备了两名老师,他们戴上VR设备,正在手把手教学各种动作。有的老师还穿上动捕服,可以更好 地帮助机器人采集场景数据。 为什么要让机器人在这么多实景里反复训练?其实机器人和孩子学走路一样,需要通过大量练习才能变聪明。 (总台央视记者 朱江 张丛婧) 责编:陈菲扬、卢思宇 这些"学生"们现在的成绩怎么样呢?老师告诉记者 ...
仅看视频就能copy人类动作,宇树G1分分钟掌握100+,UC伯克利提出机器人训练新方式
量子位· 2025-05-08 12:04
技术突破 - UC伯克利团队研发出VideoMimic系统,可将视频动作迁移到真实机器人,无需动作捕捉技术[1][3] - 系统已成功让宇树G1机器人模仿100多段人类动作[2] - 核心原理是从视频提取姿态和点云数据,在模拟环境中训练后迁移到实体机器人[3][17] 技术实现细节 - 工作流程包括视频到仿真环境转换、仿真训练、真实机器人部署验证三大步骤[18] - 从单目RGB视频获取人体三维姿态和稠密场景点云,通过SMPL人体模型表示[19] - 将稠密点云转换为轻量级三角网格模型以提高碰撞检测和渲染效率[21] - 训练过程分为四个渐进阶段,最终得到泛化能力强的控制策略[24][32] - 策略输入包括机器人本体感受信息、局部高度图和期望躯干运动方向[24] 应用效果 - 宇树Go1机器人已学会适应各种地形,包括跨越路肩和上下楼梯[7][9][12] - 机器人能在脚底滑动时快速反应恢复平衡避免跌倒[14] - 掌握了行走、爬楼梯、坐下、站立等多种动作[16][25] 硬件配置 - 宇树Go1机器人拥有12个自由度,配置与仿真模型相似[30] - 搭载深度相机和IMU等传感器,提供环境感知和本体感受信息[31][37] - 嵌入式计算平台支持策略模型实时推理[39] - 策略模型以50Hz频率运行,与机器人控制周期匹配[40] 研究团队 - 项目由UC伯克利团队开发,四位共同一作均为博士生[43] - 包括Arthur Allshire、Hongsuk Choi、华人学者章俊一和David McAllister[43][44][48][52] - 导师包括Pieter Abbee、Jitendra Malik等知名学者[43][44][45]
谷歌DeepMind CEO展示Genie 2:机器人训练新时代
搜狐财经· 2025-04-22 10:24
谷歌DeepMind Genie 2技术突破 - Genie 2能够从单一静态图像生成可探索的3D虚拟世界,为AI代理和机器人提供逼真的模拟环境 [1] - 在演示中,Genie 2将加州瀑布顶部照片转化为类似第一人称视角的视频游戏场景,用户或AI代理可以在虚拟环境中自由移动 [1] - Genie 2的"世界模型"能够动态生成环境,模拟现实世界的物理特性 [3] Genie 2的应用前景 - 该技术不仅适用于娱乐领域(如生成游戏和视频),更重要的是为AI和机器人提供高效的训练平台 [3] - Genie 2可以生成近乎无限的数据量,允许机器人在虚拟世界中进行初步学习,随后通过少量现实世界数据进行微调 [3] - 在演示中,AI控制的骑士角色在由Genie 2生成的3D环境中自主完成任务,如从三个门廊中选择正确路径并爬上楼梯 [3] 技术发展方向 - DeepMind正在探索利用谷歌地图、谷歌地球和街景视图等地理数据,进一步增强AI的世界理解能力 [6] - Genie 2能将静态图像(如街景或个人度假照片)转化为交互式3D场景,为机器人训练和用户体验开辟新可能性 [6] - 未来版本的Genie模型将能够创建更多样化、复杂的虚拟世界,为机器人学习新技能、执行任务以及与人类和物体交互提供支持 [6] 行业影响 - 该技术有望革新机器人开发,大幅减少对现实世界数据的依赖 [3] - 可能在工业、医疗和探索等领域推动智能化应用的广泛普及 [6] - 为机器人训练提供低成本、高效率的解决方案,解决传统机器人数据采集受限于现实世界复杂性和高成本的问题 [3]