Workflow
RoboTwin 2.0
icon
搜索文档
社区准备做一些访谈了,关于求职,读博/转方向......
具身智能之心· 2025-11-01 13:40
社区活动与访谈 - 社区正筹备博士访谈和行业开拓者分享 为刚入行的同学提供科研建议和行业见解 [1] - 今年是具身智能规模化招聘年 领域资金规模相比去年明显扩大 提供更多岗位机会 [1] - 将邀请企业招聘负责人和已获多个offer的求职者分享面试经验和公司需求 [1] 社区资源与内容 - 社区已完成技术路线分享、直播、问答、求职、赛事等多个版块建设 实现产业、学术、求职、问答交流的闭环 [2] - 社区汇总近40+开源项目、近60+具身智能相关数据集、行业主流仿真平台及各类技术学习路线 [12] - 社区汇总国内外具身智能高校和公司 涉及教育、宠物、工业、救援、物流、交互、医疗等方向 [15][17] 技术专题覆盖范围 - 技术内容涵盖数据采集、灵巧手、VLA模型、VLN模型、多传感器融合、分层感知操作、机器人操作系统等15个主要领域 [6] - 具体技术点包括遥操作算法、灵巧手硬件设计、VLA泛化方法、视觉语言导航、协同感知、人型机器人运动智能等40余个子专题 [6] - 社区提供持续直播分享 包括圆桌论坛和专题讲解 涵盖从本体、数据到算法的全链条内容 [4][5] 会员服务与福利 - 社区与多家具身公司建立内推机制 可第一时间将简历送达心仪公司 [11] - 会员可向数十位一线产业界和学术界嘉宾提问 获得专业解答 [11] - 社区提供行业研报汇总、机器人相关书籍、零部件品牌信息等增值内容 [19][22][24] 社区规模与影响力 - 社区拥有近2000名成员 来自斯坦福、清华等国内外知名高校和智元、优必选等头部机器人公司 [11][12] - 社区定位为国内首个具身全栈技术交流平台 旨在培养行业未来领袖 [11]
移动操作&双臂操作开源硬件与方案
具身智能之心· 2025-10-20 08:03
行业趋势与开源生态 - 机器人技术正从单一机械臂迈向“手脚协同”的移动操作时代,开源力量成为打破技术壁垒、加速创新落地的关键引擎 [3] - 近两年国内外涌现的优质开源方案为科研人员、开发者和创客提供了前所未有的便利,涵盖从硬件设计到软件框架、从仿真平台到真实部署的全链条资源 [3] - 开源项目适用于低成本家用机器人快速搭建、工业级双臂协调控制算法探索以及跨平台通用策略训练实践等多个场景 [3] 2025年开源项目概览 - **XLeRobot**:南洋理工大学开源项目,聚焦机器人在复杂环境中的灵活运动与精细操作融合,提供移动底盘与双臂协同控制的参考框架 [4] - **AhaRobot**:天津大学推出,侧重双臂操作的自主性与环境适应性,整合感知、规划与控制模块,为动态场景中的任务执行提供算法平台 [6] - **ManiGaussian++**:清华大学在IROS 2025发布,以高斯模型为基础优化双臂操作精度,在3D环境感知与运动规划上有突破 [8][9] - **H-RDT**:清华大学与地平线机器人联合开发,聚焦移动机器人的高效决策与实时操作,提供从感知到执行的完整流程方案 [11] - **RoboTwin 2.0**:上海交通大学与香港大学合作,是集成移动与双臂操作的仿真与实物平台,提供虚实结合的开发工具 [14][15] - **Open X-Embodiment**:亚利桑那州立大学等机构开源,侧重机器人操作的通用化学习框架,支持移动与双臂操作的跨场景迁移 [16][20] - **3D FlowMatch Actor**:卡内基梅隆大学与NVIDIA开源,聚焦3D空间中的运动流匹配技术,提升移动机器人与双臂操作的动态适应性 [19][21] 2024年及更早开源项目概览 - **OmniH2O**:卡内基梅隆大学等机构开源,主打人机动作映射与仿人操作,通过human2humanoid框架实现人类动作向机器人双臂的精准转化 [24][25] - **TidyBot++**:普林斯顿大学与斯坦福大学推出,专注于家居环境下的整理类任务,整合物体识别、路径规划与双臂协作算法 [26][27] - **robosuite**:加州大学伯克利分校等机构开源的成熟机器人操作仿真平台,支持移动与双臂操作的虚拟环境搭建,提供标准化任务与评估工具 [29] - **Standard Open Arm 100 (SO-ARM100)**:是标准化的双臂操作硬件与软件方案,提供通用控制接口与驱动程序,降低开发门槛 [31][32] - **GOAT: GO to Any Thing**:UIUC、CMU等机构开源,聚焦机器人的目标导向移动与操作,实现“到达任意目标并执行操作”的核心功能 [34] - **Mobile ALOHA**:斯坦福大学开源,结合移动底盘与双臂操作,主打低成本、易部署的服务机器人方案,支持远程示教与自主学习 [35]
RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集
机器之心· 2025-07-07 15:50
核心观点 - RoboTwin 2.0 是一个开源的大规模域随机化双臂操作数据合成器与评测基准集,包含50个任务的评测基准和5款本体的支持 [8][23] - 该系统通过多模态大模型与仿真闭环优化专家代码生成,显著提升任务执行效率与成功率 [10][25] - 构建了包含147类731个物体的RoboTwin-OD数据集,为复杂场景提供丰富语义支持 [12][14] - 引入系统化域随机化策略,从5个维度增强模型鲁棒性 [16] - 实验表明该系统可显著提升双臂机器人在真实环境中的迁移性能 [30][33] 技术架构 专家代码生成 - 提供更精简易用的API库,降低多模态模型生成代码门槛 [10] - 结合关键帧视觉观测和实时反馈迭代优化代码,平均成功率从47.4%提升至71.3% [25][27] - 迭代次数从2.46次降至1.76次,LLM token消耗显著降低 [27] 物体数据集 - RoboTwin-OD包含147类731个实例,其中534个通过AIGC生成并优化 [12] - 精细标注操作点、方向及多级语义信息 [12] - 支持复杂场景布置和大规模任务设计 [12][14] 自适应抓取 - 为5种本体构建差异化抓取候选集 [15] - 平均成功率提升8.3%,低自由度平台提升更显著(Piper平台+22.7%) [28] 域随机化策略 - 场景杂乱:随机加入干扰物体并进行语义分组 [18] - 背景纹理:构建12000种高质量纹理库 [19] - 光照条件:随机化光源类型、数量、颜色等参数 [20] - 桌面高度:在合理范围内均匀采样 [21] - 语言指令:通过大模型生成多样化任务描述 [22] 性能表现 仿真环境 - 在32项任务9600条数据上微调,为RDT模型带来71.6%相对提升 [30] - 典型任务平均成功率从47.4%提升至62.1% [27] 真实迁移 - 引入1000条合成数据后,四种测试配置成功率提升13.5%-33.0% [33] - 纯合成设置下仍能取得20%以上的成功率提升 [33] 开源生态 - 代码获1.2k Github Stars,包含50个任务实现 [3][36] - 提供10万+条预采集操作数据和完整物体资产库 [37] - 配套用户友好文档和示例 [9][37] 行业影响 - 作为CVPR 2025等多项赛事的官方赛题 [3] - 吸引64支队伍400+人次参与相关竞赛 [39] - 优胜方案包含SEM和AnchorDP3等创新算法 [39]
穆尧团队最新!RoboTwin 2.0:用于鲁棒双臂操作的可扩展数据基准
自动驾驶之心· 2025-06-24 20:41
核心观点 - RoboTwin 2.0是一个可扩展的仿真框架,旨在解决双臂机器人操作中数据生成和仿真环境简化两大挑战,通过自动生成多样化且逼真的数据提升策略鲁棒性[2] - 该框架引入五个维度的结构化域随机化(杂乱程度、光照、背景、桌面高度和语言指令),显著增强数据多样性和策略泛化能力[4] - 在50个双臂任务中预收集超过10万条域随机化专家轨迹,覆盖五种机器人实体,实证显示代码生成成功率提高10.9%,真实任务性能提升367%[4] 方法创新 自动专家代码生成 - 结合多模态大语言模型(MLLMs)与仿真闭环优化,通过代码生成agent和视觉-语言模型观察者的双AI agent架构实现迭代优化[10] - 在10项任务评估中,RoboTwin 2.0+MM FB配置达到71.3%的成功率,较基础版本提升23.9个百分点[27] 域随机化设计 - 场景杂乱:基于147类别731个标注物体的RoboTwin-OD库生成语义丰富的干扰场景[12] - 光照变化:随机化色温、光源类型(点光源/区域光源)等参数模拟现实光照条件[13] - 语言指令:通过MLLMs自动生成多样化任务指令和物体描述,覆盖几何/外观/部件级属性[13] 实体感知适应 - 为不同自由度机器人(7-DoF/6-DoF)定制抓取策略,使低自由度平台成功率提升13.5%-22.7%[29] - 通过标注物体关键点轴信息(抓取点/功能点)支持跨实体部署,平均任务成功率提高8.3%[16][31] 数据集与基准 RoboTwin-OD物体库 - 包含147类别731个实例,其中534个通过RGB到3D重建生成,均标注语义和操作相关标签(放置点/抓取轴)[18] 预收集数据集 - 覆盖50项双臂任务和5种机器人实体,包含10万+轨迹(每任务100条干净轨迹+400条随机化轨迹)[24] 性能验证 - 仿真到现实迁移:添加1,000条RoboTwin 2.0合成轨迹使现实任务成功率最高提升33个百分点[36] - 基准测试显示预训练模型(如RDT)在Hard条件下保持优势,非预训练模型性能下降显著[37]