Table30
搜索文档
具身走向现实世界!RoboChallenge:从仿真到实体,全球首个大规模多任务真机任务基准
具身智能之心· 2025-10-15 19:03
行业痛点与市场空白 - 具身智能领域缺乏真实、开放的评测基准,真机测试的缺失与现有评测体系的局限已成为限制该领域发展的关键卡点[3] - 当前主流的具身仿真评测benchmark主要依赖仿真环境,面临sim2real问题,模拟器中表现优异的算法在真机上常出现"落地即失效"的问题[4] - 现有在线评测系统存在明显短板,仅部署1-2台机器人、支持少数任务,无法满足"大规模多模型+多任务"的评测需求,且同一模型的成功率在0%到100%间波动,严重影响结果可重复性[4] RoboChallenge平台核心特点 - 平台由Dexmal原力灵机和Hugging Face共同发起,是全球首个大规模、多任务的在真实物理环境中由真实机器人执行操作任务的基准测试[5] - 首次实现"10台真机集群+30个多样化任务"的大规模评测能力,部署4种主流机器人,包括UR5、Franka Panda、Cobot Magic Aloha和ARX-5[10] - 创新采用"远程机器人范式",用户无需拥有任何机器人硬件,仅需通过在线API即可完成模型与真机的交互,实现"零硬件门槛"[15][19] - 平台坚持全面开放原则,向全球研究者免费提供评测服务,并公开所有任务演示数据及测试中间结果[34] 技术方案与评估体系 - 为解决真机测试中"结果波动大、公平性不足"的核心痛点,创新性地提出"视觉输入匹配"方法,通过将演示数据中的参考图像叠加于测试画面,确保每次测试初始状态一致[23] - 设计了多层级的严谨评估机制,控制测试者差异,并从四个关键维度构建评估体系:VLA解决方案难点、机器人类型、任务场景环境和目标物体属性[23] - 针对"同一模型多次测试波动"问题,设计"基准协议"与"比较协议",确保评测结果的可重复性与可比性[25] - 评估采用端到端任务成功率与过程评分相结合的机制,测试集所有任务均提供约1000条演示数据[16] 任务设计与模型表现 - 平台提供首套桌面操作基准测试集Table30,包含30个精心设计的日常情境任务,覆盖家庭、餐厅、工作等场景[12][26] - 30个任务围绕VLA模型的7大核心能力展开,包括精确3D定位、遮挡与多视角融合、时间依赖性、双臂协同、柔性物体处理、物体识别与分类以及Long horizon和多阶段操作[27][28] - 官方测试了四种主流开源VLA算法,性能更强的模型表现显著更优,SOTA模型π₀.₅的成功率尚不足50%,其得分为61.84,成功率为42.67%[29][30] - 即使仅使用少量样本(约50个任务片段)且混合多任务数据进行训练,π₀.₅仍展现出不错性能,预示着真正的"通用模型"有望在未来出现[31] 平台价值与行业影响 - 平台填补了评测空白,为VLA模型提供真实性能的"试金石",避免"纸上谈兵"式研究[38] - 显著降低参与门槛,吸引更多研究者参与,尤其降低中小企业、高校团队的评测成本[38] - 严谨的评估体系与多样化任务能暴露模型短板,明确模型改进方向,推动VLA模型在核心难点上的突破[38] - 通过结果透明、视频公开、鼓励代码开源,构建开放生态,促进跨团队协作,加速具身智能技术的整体迭代[38]
具身智能迎来ImageNet时刻:RoboChallenge开放首个大规模真机基准测试集
机器之心· 2025-10-15 18:44
行业背景与平台定位 - 全球首个大规模、多任务、在真实物理环境中由真实机器人执行操作任务的基准测试平台[1] - 旨在解决机器人行业缺乏统一、开放、可复现基准测试方法的挑战,为视觉-语言-动作模型(VLAs)的实际应用提供可靠评估标准[4] - 平台由Dexmal原力灵机联合Hugging Face共同发起,通过云端服务突破硬件资源限制,实现“没有机器人,一样做实验”[1][14] 平台核心架构与机器人选型 - 集成多款主流机器人(UR5、Franka Panda、Aloha、ARX-5)实现远程评测,确保系统具备7×24小时持续运行能力[7][9] - 传感方案同步输出多视角RGB与对齐深度信息,未来计划集成力控或触觉传感器[9] - 采用无容器化服务架构与标准化API接口,用户无需提交Docker镜像即可直接调用,所有观测数据提供毫秒级时间戳[19] 基准测试方法与评估体系 - 创新性提出“视觉输入匹配”方法,通过调整物体位置使实时场景与参考图像完全吻合,确保每次测试初始状态一致[16] - 采用端到端任务成功率与过程评分相结合的评估机制,测试集所有任务均提供约1000条演示数据[11] - 突破传统二值化评估局限,采用进度评分系统,对复杂任务认可分步进展,对简单任务优化完成效率[23] 首套测试集Table30与模型表现 - Table30包含30个精心设计的日常情境任务,相比之下行业内真机评测任务数量一般仅为3-5个[18] - 测试结果显示最新发布的Pi0.5模型取得61.84分和42.67%成功率,显著优于其他模型但仍无法在所有任务上取得高成功率[22] - 任务设计涵盖四个关键维度:VLA解决方案难点、机器人类型、任务场景环境和目标物体属性,系统评估算法在多维度场景下的泛化能力[23] 社区建设与未来规划 - 向全球研究者免费提供评测服务,并公开所有任务演示数据及测试中间结果,确保研究的可复现性与透明度[27] - 未来计划引入移动机器人、灵巧操作装置等更多硬件平台,拓展跨场景任务测试能力[29] - 评测维度将从视觉-动作协调延伸至多模态感知、人机协作等方向,并计划推出动态环境适应、长期规划等更具挑战性的基准测试[29]