RECAP
搜索文档
“最强具身VLA大模型”,究竟强在哪儿?
36氪· 2025-11-20 15:38
看似轻描淡写,实则力透纸背。 Physical Intelligence刷屏全网的机器人基础模型π*0.6,一亮相就秀出了实力: 让机器人连续一整天制作意式浓缩咖啡,数小时不间断折叠各类衣物,还能精准组装工厂所需的包装纸箱。 在π*0.6的加持下,这些任务的成功率都达到了90%以上。 最强VLA模型——π*0.6 然而,仔细阅读论文就会发现,比起连做13个小时咖啡,π*0.6真正的突破在于引入了一种更直觉的学习方法——Recap: 这彻底扭转了过去机器人只会逼近 "真值" 的模仿学习模式,让机器人能从自己的错误中成长。 就连网友也直呼: 从错误中学习,这不比人都强? π*0.6延续了Physical Intelligence此前一贯的VLA(视觉-语言-动作模型)路线,是今年四月份发布π0.5以来最新的VLA模型。 指导:用人类示范教它基础动作 辅导:纠错指导让它修正错误 练习:从自主经验中不断优化、变得更强 总的来说,π*0.6的核心贡献在于提出了一种通用训练方法——基于优势条件策略的经验与纠偏强化学习(RL with Experience & Corrections via Advantage- cond ...
“最强具身VLA大模型”,究竟强在哪儿?
量子位· 2025-11-20 08:30
在 π*0.6 的加持下,这些任务的成功率都达到了 90% 以上。 然而,仔细阅读论文就会发现,比起 连做13个小时咖啡, π*0.6真正的突破在于引入了一种更直觉的学习方法——Recap: 这彻底扭转了过去机器人只会逼近 "真值" 的模仿学习模式,让机器人能从自己的错误中成长。 Physical Intelligence 刷屏全网的机器人基础模型 π*0.6 ,一亮相就秀出了实力: 让机器人连续一整天制作意式浓缩咖啡,数小时不间断折叠各类衣物,还能精准组装工厂所需的包装纸箱。 henry 发自 凹非寺 量子位 | 公众号 QbitAI 看似轻描淡写,实则力透纸背。 就连网友也直呼: 从错误中学习,这不比人都强? 指导:用人类示范教它基础动作 辅导:纠错指导让它修正错误 练习:从自主经验中不断优化、变得更强 最强VLA模型——π*0.6 π*0.6 延续了Physical Intelligence此前一贯的 VLA(视觉-语言-动作模型)路线 ,是今年四月份发布 π0.5 以来最新的VLA模型。 总的来说, π*0.6 的核心贡献在于提出了一种通用训练方法—— 基于优势条件策略的经验与纠偏强化学习 (RL w ...