机器人训练

搜索文档
仅看视频就能copy人类动作,宇树G1分分钟掌握100+,UC伯克利提出机器人训练新方式
量子位· 2025-05-08 12:04
技术突破 - UC伯克利团队研发出VideoMimic系统,可将视频动作迁移到真实机器人,无需动作捕捉技术[1][3] - 系统已成功让宇树G1机器人模仿100多段人类动作[2] - 核心原理是从视频提取姿态和点云数据,在模拟环境中训练后迁移到实体机器人[3][17] 技术实现细节 - 工作流程包括视频到仿真环境转换、仿真训练、真实机器人部署验证三大步骤[18] - 从单目RGB视频获取人体三维姿态和稠密场景点云,通过SMPL人体模型表示[19] - 将稠密点云转换为轻量级三角网格模型以提高碰撞检测和渲染效率[21] - 训练过程分为四个渐进阶段,最终得到泛化能力强的控制策略[24][32] - 策略输入包括机器人本体感受信息、局部高度图和期望躯干运动方向[24] 应用效果 - 宇树Go1机器人已学会适应各种地形,包括跨越路肩和上下楼梯[7][9][12] - 机器人能在脚底滑动时快速反应恢复平衡避免跌倒[14] - 掌握了行走、爬楼梯、坐下、站立等多种动作[16][25] 硬件配置 - 宇树Go1机器人拥有12个自由度,配置与仿真模型相似[30] - 搭载深度相机和IMU等传感器,提供环境感知和本体感受信息[31][37] - 嵌入式计算平台支持策略模型实时推理[39] - 策略模型以50Hz频率运行,与机器人控制周期匹配[40] 研究团队 - 项目由UC伯克利团队开发,四位共同一作均为博士生[43] - 包括Arthur Allshire、Hongsuk Choi、华人学者章俊一和David McAllister[43][44][48][52] - 导师包括Pieter Abbee、Jitendra Malik等知名学者[43][44][45]
谷歌DeepMind CEO展示Genie 2:机器人训练新时代
搜狐财经· 2025-04-22 10:24
谷歌DeepMind Genie 2技术突破 - Genie 2能够从单一静态图像生成可探索的3D虚拟世界,为AI代理和机器人提供逼真的模拟环境 [1] - 在演示中,Genie 2将加州瀑布顶部照片转化为类似第一人称视角的视频游戏场景,用户或AI代理可以在虚拟环境中自由移动 [1] - Genie 2的"世界模型"能够动态生成环境,模拟现实世界的物理特性 [3] Genie 2的应用前景 - 该技术不仅适用于娱乐领域(如生成游戏和视频),更重要的是为AI和机器人提供高效的训练平台 [3] - Genie 2可以生成近乎无限的数据量,允许机器人在虚拟世界中进行初步学习,随后通过少量现实世界数据进行微调 [3] - 在演示中,AI控制的骑士角色在由Genie 2生成的3D环境中自主完成任务,如从三个门廊中选择正确路径并爬上楼梯 [3] 技术发展方向 - DeepMind正在探索利用谷歌地图、谷歌地球和街景视图等地理数据,进一步增强AI的世界理解能力 [6] - Genie 2能将静态图像(如街景或个人度假照片)转化为交互式3D场景,为机器人训练和用户体验开辟新可能性 [6] - 未来版本的Genie模型将能够创建更多样化、复杂的虚拟世界,为机器人学习新技能、执行任务以及与人类和物体交互提供支持 [6] 行业影响 - 该技术有望革新机器人开发,大幅减少对现实世界数据的依赖 [3] - 可能在工业、医疗和探索等领域推动智能化应用的广泛普及 [6] - 为机器人训练提供低成本、高效率的解决方案,解决传统机器人数据采集受限于现实世界复杂性和高成本的问题 [3]