核心观点 - 摩尔线程与北京智源人工智能研究院合作,基于FlagOS-Robo框架和MTT S5000千卡智算集群,成功完成了具身大脑模型RoboBrain 2.5的全流程训练,这是行业内首次验证国产算力集群在具身智能大模型训练中的可用性与高效性,标志着国产AI基础设施在应对复杂多模态任务上迈出了关键一步 [2] 合作成果与意义 - 此次合作成功验证了国产算力集群在具身智能大模型训练中的可用性与高效性,为具身智能从实验室走向产业落地提供了坚实底座 [2] - 该解决方案通过FlagOS软件栈与MTT S5000硬件集群的高效协作,不仅“能训”,而且实现了“训得稳、训得快” [2] - 此次合作为行业提供了可复制、可规模化的“国产算力训练范式”,为中国具身智能产业提供了一个自主、开放、高效的算力底座 [6] 模型与框架介绍 - RoboBrain是智源面向真实物理场景打造的通用具身大脑,以统一的视觉—语言多模态架构,为机器人在感知、认知、推理与决策上的核心能力提供基础支撑 [2] - RoboBrain 2.5在原有基础上,新增了机器人对动作时序价值评估和三维空间结构的理解与推理能力,对下游任务执行成功率有显著提升 [2] - FlagOS-Robo是基于开源开放的多芯片AI软件栈FlagOS构建的,面向具身智能的训练与推理一体化框架,支持从端到云的多场景部署,兼容多种芯片 [3] - FlagOS-Robo能够同时实现大脑模型(VLM)与小脑模型(VLA)的高效协同训练与推理,打通从数据采集到真机与评测的全链路,覆盖数据加载、模型训练、推理到具身评测的全流程,有效降低了开发复杂度 [4] - FlagOS-Robo支持多芯片,有统一实验管理、多芯片自动调优等功能,实现一键跨本体部署,为具身智能的前沿研究与产业应用提供强大的算力底座与系统化支撑 [4] 性能与评测结果 - 在2D/3D空间感知推理、时序价值评估等多个权威具身评测数据集上的验证结果显示,基于MTT S5000国产千卡训练出的RoboBrain-2.5模型,在多项关键指标上均与国际主流GPU训练模型保持一致 [4] - 在CrossPoint、Q-Spatial、VABench-V任务上,算法效果表现更优,表明其训练出的“具身大脑”在理解、规划和执行能力上已达行业一流水准 [4] - 具体评测数据对比显示,RoboBrain-2.5 (8B) MooreThreads在多个关键指标上与NVIDIA版本表现相当甚至更优,例如在CrossPoint任务上得分为76.30(NVIDIA版本为75.40),在Q-Spatial任务上得分为78.31(NVIDIA版本为73.53) [5] - 在模型精度方面,MTT S5000千卡集群上的Loss走势与国际主流GPU训练结果高度重合,相对误差小于0.62%,实现了跨平台的无损迁移,做到了“代码不改、精度不降”的平滑适配 [5] 算力集群性能 - 摩尔线程MTT S5000千卡智算集群展现了较高的扩展能力:从64卡扩展至1024卡,系统实现了90%以上的线性扩展效率,扩展曲线呈现极佳的线性增长趋势 [6] - 随着算力资源的增加,训练速度几乎同步倍增,证明了国产集群在大规模并行计算和通信调度上的成熟度,并具备支持万卡级训练的能力 [6]
摩尔线程S5000千卡集群支持具身大脑模型训练:精度对齐国际主流
IPO早知道·2026-01-13 21:54