放大招!蚂蚁灵波“王炸”模型四连发,机器人要成精了?
机器人大讲堂·2026-01-30 22:10

文章核心观点 蚂蚁集团旗下灵波科技在四天内体系化开源了四个具身智能核心模型,构成了一套覆盖感知、决策、仿真与执行的完整技术栈。此举旨在通过提供“基座+适配”的新范式,解决机器人行业因场景碎片化和硬件非标化导致的成本高、规模化难等痛点,公司定位为专注于打造可复用的智能基座,而非下场制造机器人本体[1][21]。 模型一:LingBot-Depth(视觉感知) - 核心功能:解决机器人对透明与反光材质的视觉感知难题,让机器人“看见不可见”[1] - 技术路径:采用掩码深度建模算法,不依赖昂贵硬件升级,提升现有传感器能力[2] - 训练数据:构建了包含200万组真实场景数据和100万组合成数据的训练集[2] - 性能提升:在稀疏深度补全任务中误差降低约47%,室内场景相对误差降低超过70%[2] - 真机验证:启用后,机器人抓取完全透明塑料杯的成功率从0跃升至50%[3] 模型二:LingBot-VLA(决策大脑) - 核心功能:作为视觉语言动作模型,让机器人理解抽象指令,具备跨硬件和场景的泛化能力[1][5] - 训练数据:使用20000小时真实机器人操作数据进行预训练,覆盖9种不同构型的双臂机器人,创下开源领域纪录[5] - 关键发现:首次在真实机器人任务中系统验证了VLA模型的Scaling Law,随着预训练数据从3000小时扩展到20000小时,下游任务成功率持续提升且未饱和[5] - 技术架构:采用专家混合Transformer设计,并创新性地将深度信息通过可学习查询对齐机制注入模型[7] - 评测表现:在上海交通大学开源的GM-100评测基准中,平均成功率达17.3%,超越此前最强的Pi0.5模型[7];在仿真基准RoboTwin 2.0中,面对高度随机化干扰,成功率比π0.5领先近10个百分点[10] 模型三:LingBot-World(仿真环境) - 核心功能:构建一个高保真、可交互、物理规律严谨的虚拟世界模拟器,作为机器人的低成本试错与学习空间[1][12] - 核心特点:支持十分钟超长且稳定的视频生成,解决了长视频生成的记忆难题[13];支持用户通过键盘或自然语言指令实时交互与改变世界[14];遵循严格物理规律,物体不会穿模且状态保持逻辑一致[16] - 战略意义:完全开源此高保真模拟器,被社区视为具身智能的重大进步和对开源社区的巨大胜利[17] 模型四:LingBot-VA(执行控制) - 核心功能:作为全球首个自回归视频-动作一体化世界模型,实现“边推演,边行动”,打通从虚拟推演到物理执行的关键环节[1][17] - 核心突破:将世界推演与动作生成融合,在每一步根据当前观测同步生成下一帧画面和对应机器人动作,形成实时闭环[18] - 关键能力:具备长期记忆,能区分相似状态避免任务卡壳[18];拥有少样本快速学习能力,仅需30-50条真实演示就能快速适应新任务[20];构建了“预测-执行-感知-修正”的实时闭环,利用传感器反馈确保行动不偏离现实[20] - 评测表现:在真实机器人评测中,面对高难度任务,平均成功率较顶级基线模型提升20%;在仿真评测中,将双臂协同操作的成功率推至90%以上,刷新行业纪录[20] 行业影响与公司战略 - 解决行业痛点:针对机器人行业场景碎片化与硬件非标化的核心痛点,提供“基座+适配”的新范式[21] - 降低应用门槛:企业可利用开源通用模型与工具链,以更少的数据和更低的算力成本快速适配特定场景和机器人本体[21] - 明确战略定位:公司不下场制造机器人躯体,而是专注于打造可规模化复用的最强大脑与核心能力,为行业提供标准智能基座[21] - 开启开放周期:体系化开源意味着以开放协作定义的新周期开始,加速通用具身智能未来的到来[21]

放大招!蚂蚁灵波“王炸”模型四连发,机器人要成精了? - Reportify