文章核心观点 - 极佳视界公司推出的GigaBrain-0.5M* VLA大模型在具身智能领域取得重大突破,通过基于世界模型的强化学习范式和人在回路持续学习机制,显著提升了模型在复杂长时程任务中的成功率与鲁棒性,标志着具身智能原生范式的变革 [3][5][9] 模型性能与突破 - GigaBrain-0.5M是其前代模型GigaBrain-0.1的进化体,后者曾在RoboChallenge中以68.34分和51.67%的成功率(SR)获得全球第一 [4] - 在与主流方法RECAP的对比中,GigaBrain-0.5M将任务成功率强行拉升了30% [8] - 在折纸盒、咖啡制备、衣物折叠等高难度长时程任务中,实现了接近100%的任务成功率,并可稳定复现成功执行轨迹 [12] 技术架构与训练范式 - 公司提出基于世界模型的强化学习范式,采用迭代式四阶段闭环训练流程 [10] - 创新引入人在回路持续学习机制,通过人工筛选与校正模型推演轨迹进行迭代训练,形成“行动—反思—进化”的闭环式自主迭代升级 [5] - 基座模型GigaBrain-0.5基于总计10,931小时的多样化机器人操作数据进行预训练 [18] - 训练数据中,61%(6,653小时)由自研具身世界模型GigaWorld高保真合成,剩余39%(4,278小时)源自真实机器人采集 [19] - 通过GigaWorld生成合成数据,可控地生成新纹理、新物体位姿与新观测视角下的训练样本,以突破真实采集的长尾瓶颈并增强模型在分布外场景中的适应性 [18][21] 世界模型的价值预测优势 - 基于世界模型的价值预测方案在执行效率与预测精度上,均优于π*0.6所提出的VLM方案 [13] - 在叠衣服任务中,模型预测的价值曲线能与任务物理进程高度对齐,例如衣物摆正时价值稳步上升,出现干扰物时价值骤降,移除后迅速恢复 [14][15][16] - 实验数据显示,基于世界模型(状态+价值)的方案在推理时间(0.25秒)、平均绝对误差(MAE 0.0621)和肯德尔等级相关系数(Kendall 0.8018)等指标上综合表现优于VLM方案 [17] 公司战略与行业影响 - 公司通过“基模-本体-场景”的深度打磨,围绕世界模型平台GigaWorld、通用具身大脑GigaBrain、原生本体Maker构筑了一套能自我进化的闭环生态 [22] - 这种体系化的作战方式使公司具备了将进化效率提升10-100倍的硬实力,致力于推动通用机器人服务千行百业、走进千家万户 [22]
捅破具身智能天花板!极佳视界新VLA大模型登场,复杂长时程任务近100%成功率
量子位·2026-02-15 13:30