Workflow
机器人上下文协议首次开源:阿里达摩院一口气放出具身智能「三大件」
具身智能之心·2025-08-12 08:03

阿里达摩院具身智能开源项目 - 阿里达摩院在世界机器人大会上宣布开源三款具身智能相关模型和协议:视觉-语言-动作模型RynnVLA-001-7B、世界理解模型RynnEC、机器人上下文协议RynnRCP [1] - RynnRCP协议旨在解决具身智能开发流程碎片化问题,推动数据、模型和机器人本体的兼容适配,已支持Pi0、GR00T N1.5等多款热门模型及SO-100、SO-101等机械臂 [2] - RynnRCP包含两大模块:RCP框架(建立机器人本体与传感器连接)和RobotMotion(实现大模型与机器人控制的桥梁)[4][5] 开源模型技术细节 - RynnVLA-001是基于视频生成和人体轨迹预训练的7B参数模型,可从第一人称视频学习人类操作技能并迁移到机械臂控制 [7] - RynnEC是世界理解模型,能从11个维度解析场景物体,支持仅通过视频序列建立空间感知 [7] - 达摩院上月还开源了WorldVLA模型,首次实现世界模型与动作模型融合 [8] 具身智能产业布局 - 达摩院聚焦具身智能系统和模型研发,与产业共建基础设施包括硬件适配、数据采集和技术社区 [7] - 公司正在拓展机器人产业空间,加速场景落地 [7] 开发者生态建设 - 具身智能之心知识星球是国内首个具身智能全栈学习社区,包含30+学习路线、40+开源项目、60+数据集 [11] - 社群覆盖60+技术交流群,涉及大模型、机器人仿真、产品开发等多个方向 [12]