Workflow
π0.5模型
icon
搜索文档
技术圈热议的π0/π0.5/A0,终于说清楚是什么了!功能/场景/方法论全解析~
自动驾驶之心· 2025-06-22 09:35
π₀模型结构 - 核心架构基于预训练视觉语言模型(VLM)和Flow Matching技术,包含VLM backbone、动作专家和跨具身训练组件[3] - 整合7种机器人、68项任务、超10,000小时数据,通过权重调整处理不同机器人的动作空间差异[3] - 训练流程基于PaliGemma VLM,融合多模态输入(图像编码器、语言编码器、proprioceptive state编码器)[3] - 独立子网络(3亿参数)负责将VLM输出转换为连续动作,采用流匹配技术生成高频率动作序列(最高50Hz)[3] π₀优势与功能 - 零样本直接执行任务,通过语言提示控制机器人无需额外微调[4] - 支持复杂任务多阶段微调,如叠衣服分解为多个步骤[4] - 语言指令跟随与高层策略集成,提升语义理解与任务规划能力[4] - 高频率精细操作(50Hz)适用于折叠衣物、组装盒子等任务[4] - 单模型适配多种机器人形态,降低部署成本[4] π₀性能分析 - 开箱即用性能:在餐桌清理等任务中指令跟随准确率比π₀-small高20%-30%[4] - 衬衫折叠成功率接近100%,远超OpenVLA[6] - 复杂清理任务正确分类物体数量比Octo高40%[6] - 预训练+微调流程实现60%-80%任务完成度,显著优于从头训练[7] π0.5模型结构 - 采用双阶段训练框架和分层架构,基于Transformer的视觉-语言-动作(VLA)模型[7][9] - 分层推理机制:高级语义子任务预测+低级动作生成[9] - 动作表示融合离散标记(FAST tokenizer)和连续表示(流匹配)[9] - 预训练阶段使用400小时移动机器人数据+非移动机器人数据+网页多模态数据[9] π0.5优势与功能 - 异构数据驱动泛化,实现从未见场景中的任务执行[13] - 长时程任务处理能力,支持10分钟以上连续操作[13] - 零样本语义理解,基于网页数据预训练理解未见过物体[13] - 在"盘子入水槽"等任务中成功率比π0高25%-40%[12] - 离散-连续动作混合训练比纯扩散模型效率高3倍[12] π0.5性能分析 - 真实家庭环境中多阶段任务成功率达60%-88%,任务时长10-15分钟[23] - 随训练环境增加性能持续提升,"整理床铺"成功率从30%升至80%[24] - 跨实体数据移除后任务性能下降20%-30%[24] - 网页数据对未知物体泛化至关重要,移除后成功率从60%降至30%[24] A0模型结构 - 采用分层架构设计:高层空间Affordance理解+低层动作执行[21] - 核心组件包括Position Offset Attention和Spatial Information Aggregation Layer[22][25] - 预训练与微调策略:100万接触点数据集预训练+标注轨迹数据微调[25] A0优势与功能 - 跨平台泛化能力,可在多种机器人平台无缝部署[26] - 高效空间推理,避免密集空间表示的高计算成本[26] - 数据利用效率高,少量任务特定数据即可适应新场景[26] - 可完成擦黑板、物体放置、开抽屉等需要空间推理的任务[26] A0性能分析 - Franka机器人平均成功率62.5%,开抽屉任务成功率75%[27] - Kinova机器人平均成功率53.75%,轨迹跟踪任务比基线高20%[27] - 擦黑板任务成功率比MOKA高15%-20%,比ReKep高约20%[27] - 在Kinova平台擦黑板任务中成功率50%,远超RDT-1B(10%)和π₀(35%)[27]
技术圈热议的π0/π0.5/A0,终于说清楚是什么了!功能、场景、方法论全解析~
具身智能之心· 2025-06-21 20:06
π₀模型结构 - 核心架构基于预训练视觉语言模型(VLM)和Flow Matching技术,包含VLM backbone、动作专家和跨具身训练组件[3] - 整合7种机器人、68项任务、超10,000小时数据,通过权重调整处理不同机器人动作空间差异[3] - 训练流程继承PaliGemma VLM的语义知识,融合多模态输入(图像/语言/物理状态)[3] - 独立子网络(3亿参数)将VLM输出转换为连续动作,流匹配技术实现50Hz高频率动作序列生成[3] π₀优势与功能 - 零样本直接执行预训练覆盖的语言提示任务(如"fold shirt")[4] - 支持复杂任务多阶段微调(如叠衣服分解为4个子步骤)[5] - 语言指令跟随能力可将高层任务(如"bus the table")分解为子任务序列[6] - 流匹配技术实现50Hz精细操作,适用于衣物折叠等高精度场景[7] - 单模型适配多种机器人形态,降低部署成本[10] π₀性能分析 - 开箱即用性能:在餐桌清理等任务中指令跟随准确率比π₀-small高20%-30%[11] - 微调效率:预训练类似任务仅需1-5小时数据微调,全新任务性能比从头训练提升2倍[11] - 复杂任务表现:叠衣服等任务通过"预训练+微调"实现60%-80%完成度[11] - 衬衫折叠成功率接近100%,复杂清理任务正确分类数量比Octo高40%[12] π0.5模型结构 - 采用双阶段训练框架和分层架构,基于Transformer实现多模态序列编码[13] - 分层推理机制:高级语义子任务预测+低级动作生成,结合离散/连续动作表示[16] - 预训练阶段使用400小时异构数据(97.6%非移动机器人数据)[16] - 后训练阶段引入动作专家模块优化实时控制,SigLIP视觉编码器(400M参数)+Gemma语言模型(2.6B参数)[16] π0.5优势与功能 - 异构数据驱动泛化:在未见过场景中执行任务,支持10分钟以上长时程操作[18] - 离散-连续混合训练比纯扩散模型效率提升3倍[17] - 多场景适应性:家庭环境清洁/整理任务,跨实体迁移学习能力[20] - 数据效率突破:仅用400小时移动数据(占2.4%)实现强泛化[21] π0.5性能分析 - 真实环境表现:未训练家庭中多阶段任务成功率60%-88%,单任务耗时10-15分钟[25] - 数据规模影响:104个训练位置时性能接近测试环境基线(差距<5%)[26][27] - 关键数据源:跨实体数据移除导致性能下降20%-30%,网页数据对未知物体泛化至关重要[28] A0模型结构 - 分层架构设计:高层空间Affordance理解+低层动作执行[29] - 核心组件包括Position Offset Attention和Spatial Information Aggregation Layer[30] - 预训练策略:100万接触点数据集预训练+标注轨迹微调[31] A0优势与功能 - 跨平台泛化:支持Franka/Kinova等机器人平台无缝部署[34] - 高效空间推理:通过接触点预测降低计算成本[34] - 数据利用效率:少量任务数据即可适应新场景[34] A0性能分析 - Franka机器人平均成功率62.5%,开抽屉任务达75%[35] - Kinova机器人轨迹跟踪任务成功率比基线高20%[35] - 擦黑板任务成功率比MOKA高15%-20%,执行步骤仅为RDT-1B的1/8-1/10[35]
对标具身智能大模型独角兽[PI] ,这家“清华系”创企又融资!!
Robot猎场备忘录· 2025-05-20 13:01
公司融资动态 - 千诀科技于2025年5月20日完成Pre-A+轮融资,投资方包括钧山投资、祥峰投资和石溪资本,资金将用于技术演进、产品标准化及产业化交付能力提升 [1] - 2025年3月公司完成数千万元Pre-A轮融资,由追创创投与德同资本领投,景业智能战略投资,两个月内连续完成两轮融资 [1][2] - 截至2025年5月,公司累计完成5轮融资(企查查显示4轮),包括2025年1月的天使+和天使++轮(华业天成、瑞江投资领投)及2024年9月的天使轮(英诺天使基金领投),累计融资金额达数亿元 [2] 公司背景与技术定位 - 公司成立于2023年6月,专注于将"类脑"技术应用于机器人感知、决策与控制,开发跨场景部署的通用机器人大模型Universal Policy [3][4] - 核心团队来自清华大学自动化系,研究方向涵盖强化学习、机器人控制及多任务泛化,创始人高海川博士提出通用机器人概念并创建VIPlab机器人组 [9][11] - 技术顾问陈峰教授为国内首批脑科学专家,主导中国脑计划课题,助力公司积累亿级具身感知与决策预训练数据集 [11][14] 核心技术优势与对标企业 - 国内唯一对标美国Physical Intelligence(PI)的企业,自主研发的"具身大脑"系统与PI的π0.5模型功能一致,具备开放环境长时程任务执行能力 [12] - 算法层面:打造产品级机器人感知与决策大模型,支持全自主动态响应环境变化,实现跨形态、跨任务泛化 [16] - 硬件层面:基于Tianjic类脑芯片开发端侧软硬一体方案"脑坞",减少对云端及英伟达算力依赖 [16] 产品商业化进展 - 2024年4月发布机器人感知与决策大模型,已在家庭、商业及工业场景落地,与多家互联网及3C巨头合作 [15] - 计划展示系统在非结构化环境中的全流程自主决策能力,覆盖识别、路径生成到任务执行的闭环 [14] - 全球具身智能赛道两家独角兽为PI和Skild AI,其中PI成立1个月即获7000万美元融资(投后估值4亿美元),2024年11月估值达24亿美元 [15][16][17] 行业趋势与竞争格局 - 科技巨头如谷歌、OpenAI、华为等从投资转向亲自入局人形机器人制造,资本更关注具身智能大模型或强AI能力的本体公司(如自变量机器人、穹彻智能等) [21][22] - 人形机器人商业化依赖软件算法突破,大模型的通识理解与多级推理能力是核心,自研大模型成为企业技术闭环的关键 [20][22] - PI的π0.5模型展示开放世界家庭任务泛化能力,标志机器人技术从实验室向现实突破,国内企业如星尘智能、智元机器人已与PI展开合作 [17][18]
清华系具身大脑团队累计融资数亿规模,对标美国头部公司,已在行业头部厂商落地|硬氪首发
36氪· 2025-05-20 09:33
融资与资金用途 - 公司完成Pre-A+轮融资 由钧山投资 祥峰投资和石溪资本共同投资 累计融资金额达数亿元 [1] - 本轮融资将用于核心技术演进 产品标准化及产业化交付能力提升 [1] 团队与技术背景 - 公司为清华系团队孵化 核心成员多毕业于清华大学自动化系及相关人工智能研究机构 具备顶尖人才密度 [1] - 国内唯一可对标美国Physical Intelligence的企业 率先实现通用具身智能的实景长时程任务执行能力 [1] - 自主研发的"具身大脑"系统通过多模态实时感知 持续任务规划和自主执行 理念与Physical Intelligence的π0.5模型高度一致 [2] 技术特点与突破 - 具身大脑具备跨环境 无预设 长时程特点 可适配二十余种硬件形态 家庭保姆机器人可持续运行数小时直至电量耗尽 [2] - 采用"类脑计算"技术路径 打通感知-推理-行为闭环 实现机器人从被动执行向主动规划的质变 [5] - 系统在开放式非结构化环境下展示全流程自主决策能力 覆盖识别 判断 路径生成 任务执行等维度 [5] - 通过类脑启发的神经推理机制重构决策输入 机器人仅依靠自身传感器进行长时程工作 不依赖人为指令触发 [5] 商业化进展 - 具身大脑已在家庭服务 物流配送 商业运营等场景稳定运行 与多家头部机器人厂商 消费电子及互联网企业达成合作 [6] - 联合知名3C产业方构建全球最大纯实采家庭场景数据集并完成模型训练 部署于实际产品运行 [6] - 系统实现任务抽象与复用 相比传统方案无需针对每类任务重写脚本 成为"可扩展具身智能标品" [6] 产品演示与迭代 - 累计现场演示上百场 最长演示时长超2小时 自2023年6月成立后快速完成从基础框架到产品级落地的迭代 [5] - 具身大脑具备标准化能力 支持灵活适配和快速部署 兼容各类人形与非人形平台 成本与工程交付效率优势显著 [5]