微软发布首个机器人 VLA+ 模型,触觉进入核心架构
搜狐财经·2026-01-23 21:08

微软发布机器人VLA+模型Rho-alpha - 微软研究院正式发布其首款专为机器人打造的VLA+模型Rho-alpha,该模型基于Phi系列视觉语言模型构建 [2] - 模型旨在将日常自然语言指令实时转化为精确的机器人控制信号,以执行双手协同等高度复杂的物理任务 [2] - 模型已在配备触觉传感器的双臂UR5e机械臂平台以及人形机器人上进行评估 [3] 核心技术:多模态感知与端到端控制 - 核心创新在于多模态感知和实时动作生成能力,在标准视觉和语言理解之外,特别强调并引入了触觉感知作为关键模态 [4][5] - 触觉感知让机器人能根据与物体接触的反馈信息调整姿势和力度,在处理易碎、高精度和柔性物品时提高任务可靠性 [6][7] - 模型可将自然语言提示直接转化为低级控制动作,无需人工拆解指令即可指导机器人执行抓取、装配等操作 [7] - 相比传统依赖预设脚本或硬编码路径的方法,该模型能实现更自然、灵活的任务执行,以适应不确定的真实环境 [2][8] 训练方法与未来发展 - 为解决机器人行业数据不足的问题,模型结合了真机数据、仿真数据以及大规模视觉问答数据进行训练 [11] - 通过机器人仿真和强化学习流水线生成大量合成数据,并与真机数据结合使用 [12] - 公司正在研究部署后持续学习的机制,使机器人能终身学习并适应不同用户的习惯 [9] - 未来版本计划加入力感知等更多传感模态,以提升操作精度和安全性 [7] - 目前模型未完全开放,将先通过研究型早期访问计划向外部开放,随后开放更多行业渠道 [14] 行业背景与战略意义 - 在物理AI被视为人工智能下一阶段核心方向的背景下,Rho-alpha的发布标志着微软将其AI积累正式延伸至复杂的机器人系统 [10][11] - 通过云端训练、仿真和持续学习,公司为机器人提供了一套可扩展、可复用的智能体系,降低了对定制化程序的依赖 [14] - 科技大厂进入非常消耗资金的机器人模型领域,预计将加速提升机器人的自主能力,微软的进入可能只是行业长远发展的起点 [14]