100亿都不够烧!机器人公司CEO们给出新判断:具身智能不能再照搬LLM

智源研究院技术进展 - 发布原生多模态世界模型Emu3 5,训练数据从15年视频扩展至790年,参数规模从8B提升至34B,并引入自研DiDA技术使视频、图像生成速度提升至与Diffusion、DiT类模型相当 [5] - 构建跨异构本体具身智能体系,包括RoboBrain(具身大脑)、RoboOS(跨本体操作系统)与基于VLA的RoboBrain-0,已在多款不同形态机器人本体上部署,能完成导览、导购到复杂交互任务 [5] - 展示全身控制能力,宇树G1机器人在其控制框架BAAI Thor加持下完成拖动1 4吨汽车的实验 [5] 行业核心议题讨论:模型与架构 - 世界模型需从海量视频中学习,面向具身智能所需的“下一时空状态预测”,而非语言主导的“下一个Token预测”,且必须建立在大量属于机器人的数据之上 [5][7] - 具身智能未来可能需要一套“先行动、再视觉、最后语言”的具身原生结构,以行动与感知为核心,而非沿用当下“大模型的语言中心范式” [10] - 具身智能的最终“大模型”并非单体模型,而是VLA+世界模型+RL的闭环系统 [12] 行业核心议题讨论:数据来源与使用 - 机器人必须在真实场景中学习真实性、多样性和规模化,但仿真是当前更现实的突破口,许多底层控制能力如行走、跳跃等全身控制及灵巧手操作需在模拟器中完成,真实世界仅做微调 [15] - 视频数据被视为最容易大规模获取且最接近真实世界的关键数据形式,训练逻辑可类比人类从视频理解世界再到真实交互校正的过程 [15] - 真实与仿真数据会形成螺旋上升关系,先落地采集真实数据,回仿真扩大覆盖,再回真实验证,不同阶段根据任务需求使用不同类型数据 [15] 行业核心议题讨论:资源投入与硬件形态 - 若有100亿元资金推进具身智能,投入优先级集中在顶尖人才吸纳、算力与数据引擎等基础设施,以及打造属于具身智能的模型体系 [17][19][21] - 人形机器人并非具身智能的唯一最终形态,硬件瓶颈问题的核心是场景需求,模型不定义硬件,硬件也不定义模型,场景定义硬件 [22][23] - 具身智能体系应分层,上层大模型可跨本体复用,但贴近执行的小脑层模型需随硬件结构细调,同一模型部署到不同本体上未必最优 [23]