产品核心概述 - 谷歌DeepMind正式发布新一代通用机器人基座模型Gemini Robotics 1.5系列,该系列是全球首个具备模拟推理能力的具身模型 [1][3] - 模型结合了视觉、语言与动作,并通过具身推理实现“先思考,再行动”的运作模式 [1] - 该技术被视为将通用AI推向现实世界的重要里程碑 [9] 模型架构与分工 - 系列由两大模型组成:GR 1.5负责动作执行,GR-ER 1.5强化推理能力,提供规划与理解支持 [2][8] - GR 1.5作为执行层的多模态大模型,能够直接把自然语言和视觉输入转化为低层级的机器人动作 [5][39] - GR-ER 1.5作为推理模型,负责高层规划、工具使用与进度监控 [40] - 两款模型协同工作,形成一个Agentic Framework,实现“规划+执行”的完整闭环 [41] 核心能力展示 - 能够执行包含多步子任务的长流程复杂任务,例如分拣衣物、打包行李、准备烹饪配料等 [10][11][12] - 在执行任务过程中具备自我检测与自动修正能力,例如抓取失败后能立刻转换方案 [15][35] - 在230项任务的基准测试中,GR 1.5在指令泛化、动作泛化、视觉泛化和任务泛化四个维度上都表现出色 [61] - 结合GR-ER 1.5的系统在长时序任务上,完成进度分数最高接近80%,几乎是单一VLA模型的两倍 [62] 跨平台与迁移技术 - 具备零样本跨平台迁移能力,同一模型可驱动低成本双臂机器人ALOHA、工业级Franka及人形机器人Apollo等多种硬件 [7][16][18] - 在ALOHA上学会的技能可直接迁移到Franka,在Franka上训练的操作能零样本转移到Apollo [20] - 核心技术为全新的Motion Transfer机制,将不同机器人平台的运动轨迹映射到统一的动作语义空间,实现操作经验的跨机器人迁移 [21][47][48] 推理与安全性 - 模型在行动前会用自然语言把复杂任务拆解为小步骤,这种显性思考提升了可解释性和信任感 [25][26][27][55] - 具备风险识别能力,能理解动作背后的物理风险并触发保护机制,在ASIMOV-2.0安全基准中表现出更高的风险识别与干预能力 [36][64] - 在训练过程中,约九成以上的迭代在MuJoCo仿真环境中完成,保证了在现实硬件上执行时的稳定性与安全性 [51][52] 技术突破与行业意义 - 核心创新在于同时实现了思考推理能力、跨平台技能迁移以及将“理解物理世界”的能力推向新高度 [53][56][58] - 在学术基准测试中,GR-ER 1.5在空间推理、复杂指点、进度检测等任务上全面超越了GPT-5和Gemini 2.5 Flash [59] - 该系列标志着机器人技术正从执行单一指令转向对物理任务进行真正的理解和解决问题 [69]
首款推理具身模型,谷歌DeepMind造!自主理解/规划/执行复杂任务,打破一机一训,还能互相0样本迁移技能