具身智能之心

搜索文档
突然发现,具身相关的公司已经近200家了......
具身智能之心· 2025-10-03 20:02
这几天抽空在复盘一些具身领域公司的业务和有相关具身业务的公司,不得不说,数量已经着实不小了。 国内算上做本体和相关研究的机器人公司、互联网公司、各类二级研究院(独立孵化的)已经接近200家。 业务相似度、产品相似度都过高,甚至故事都有蛮多重叠。这也直接说明了一个问题,内卷马上要到来 了。有的公司一直努力将本体和应用场景结合,试图验证其能够商业化的能力。而有的公司,则选择更聪 明的方式,强化本体的研发,把验证留给更多开发者,期望在充分验证后,完成最终算法的集成和场景落 地,确实是一个聪明的打法,这也足够熬过一波寒冬了。 对于处在具身领域的个人来说,更多公司和业务需求确实造就了许多工作机会。从早期自驾和大模型的周 期来看,真正留在后面担当主力的,都是能做落地的,而且是技术栈特别丰富的。抱着"捞一波"行情的心 态,不可能长久,洗牌也是早晚的事情。广屯粮,筑高墙是个一直受用的真理。 扛内卷,一个足够有料的社区 对很多转型或入门的同学来说,试错成本有点高。没时间和缺乏完整的体系是最大问题,这也容易导致少 数人才有机会到具身领域,如果想要卷赢那就更加困难了。 具身智能之心知识星球一致努力打造成超大的具身与机器人社区,是一 ...
具身智能之心招募合伙人啦!课程共建/项目开发/咨询服务等
具身智能之心· 2025-10-02 18:04
公司发展定位与愿景 - 公司从技术分享起步 现已发展成覆盖多个模块的社区运营平台 致力于在具身智能领域发展中贡献价值 超越单纯媒体角色 成为能为行业带来实际价值的平台 [1] - 公司认识到少数人力量有限 因此真诚邀请对具身智能领域有影响力的人士加入合作 [1] 合作方向 - 课程开发合作内容包括搭建面向初学者、企业培训和高校学科建设的课程 以推动行业发展 [2][3] - 硬件研发合作旨在搭建性价比高、易用的具身智能科研平台 降低开发者和初学者的使用门槛 [4] - 开源项目合作目标是共同搭建具备全球影响力的开源项目 [5][6] - 咨询服务合作将承接B端和C端在具身数据、本体、算法和部署等方面的咨询需求 以助力产业升级和人才发展 [7][8] 合作者要求与待遇 - 公司期望合作者具备一定的领域工程经验 或拥有博士及以上学位并在顶会发表过论文 [10] - 合作形式支持全职和兼职 公司将提供行业内有竞争力的报酬 并分享行业资源 [10] - 公司承诺充分保护在企业就职的合作者个人隐私 [9]
斯坦福机器人新作!灵巧操作跟人学采茶做早餐,CoRL 2025提名最佳论文
具身智能之心· 2025-10-02 18:04
文章核心观点 - 提出一种名为DexUMI的数据采集与策略学习框架,通过硬件和软件双重适配,以人手作为自然接口将灵巧操作技能迁移至多种灵巧手 [4] - 该框架相比传统遥操作方法,数据采集效率提升3.2倍,在多项复杂任务中平均成功率高达86% [10][35] - 框架验证了其有效性,特别是在国产灵巧手星动XHAND 1上表现出色,为大规模灵巧手现实数据高效采集建立了新范式 [7][35][38][40] DexUMI框架的技术原理 - **硬件创新**:为每款灵巧手设计专用可穿戴外骨骼装置,通过硬件优化参数精准匹配灵巧手指运动轨迹,并采用编码器、150°广角相机和iPhone ARKit技术追踪关节运动和手腕位姿 [19][20][23] - **软件适配**:采用包含四个步骤的数据处理流水线,包括人手与外骨骼分割、环境背景修复、生成对应灵巧手视频、机器人示教视频合成,确保训练与部署阶段视觉输入一致 [24][25][28][29] - **核心优势**:直接提供触觉反馈,而典型遥操作系统通常无法提供,同时效率远超传统遥操作方法 [37] 实验验证与性能表现 - **测试平台**:在两种灵巧手硬件平台上验证,包括欠驱动的Inspire手(12自由度,6主动自由度)和全驱动的星动XHAND 1(12个主动自由度) [10][34] - **任务设置**:包含立方体任务、蛋盒开启、茶艺操作、厨房任务等四项现实任务,测试基础操作精度、复杂手型控制、长时序任务综合能力 [31][34] - **关键结果**:软件适配对弥合视觉差距至关重要,在两种灵巧手上均表现优异,平均任务成功率达到86% [10][35] 星动纪元XHAND 1的突出表现 - **技术特点**:采用全驱动设计和独特的关节全直驱技术,具备12个主动自由度,并配备指尖270度覆盖的高精度触觉传感器 [34][40][42] - **任务表现**:单独完成了包含四个连续步骤的厨房长序列任务,展示了在长时序任务中结合精确动作、触觉感知及非指尖操作的综合能力 [40] - **行业意义**:其卓越表现为协同打造科研基础设施、建立数据采集共享社区提供了可能,将加速灵巧操作在实际应用场景的落地 [42]
Sim,Real还是World Model?具身智能数据的“困境”与解法
具身智能之心· 2025-10-01 20:48
更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 在具身智能的征途上,我们究竟该依赖仿真的效率,还是现实的真实数据,甚或期待世界模型改变游戏规则? 随着物理仿真进入深水区,"仿真派"能否笑到最后? 然而Physical Intelligence (PI)联合创始人、具身智能领域的先行者Sergey Levine始终坚称:替代数据是叉勺(叉子勺子二合一的产物,既不 如勺子,也不如叉子),真实交互数据不可替代——这究竟是策略局限,还是数据本质的铁律?如今,Genie3携世界模型横空出世,能够 从文本生成可交互的动态环境,甚至驱动在线规划。这是否意味着我们正站在"仿真"与"现实"二元对立终结的前夜?世界模型会成为数据 问题的终极答案,还是仅仅换了一种形式的sim,并依然难逃Sim-to-Real gap的宿命? 本场技术圆桌,我们邀请到国内Sim2Real领域四位杰出青年科学家—— 与他们四位共话前沿,从高保真3D资产构建、神经渲染的物理瓶颈、铰链体结构优化,到VLA模型的解耦设计等方面入手深入探讨:具身 智能的数据之路,究竟通向仿真、现实,还是那个正在 ...
国人之光!CoRL2025最佳机器人论文出炉(北京通用人工智能研究院&宇树等)
具身智能之心· 2025-09-30 16:27
CoRL 2025 最佳论文获奖情况 - 最佳论文奖授予北京通用人工智能研究院、宇树科技、北京邮电大学等团队的成果"Learning a Unified Policy for Position and Force Control in Legged Loco-Manipulation",研究内容为力/位混合控制模型 [1][7] - 最佳学生论文奖由加州大学伯克利分校团队获得,论文题目为"Visual Imitation Enables Contextual Humanoid Control",主要涉及跨具身智能体的运动控制 [3][7] CoRL 2025 入围决赛研究项目 - LocoFormer: Generalist Locomotion via Long-context Adaptation,研究内容为跨具身智能体的运动控制,参与机构包括Skild AI [7] - Fabrica: Dual-Arm Assembly of General Multi-Part Objects via Integrated Planning and Learning,研究内容为双臂规划和控制策略学习模型,参与机构包括MIT、ETH、Autodesk、Texas A&M University [7] - DexUMI: Using Human Hand as the Universal Manipulation Interface for Dexterous Manipulation,研究内容为人和机器人交互、数据收集、策略学习等,参与机构包括斯坦福、哥大、JP摩根、CMU、英伟达 [7] - The Sound of Simulation: Learning Multimodal Sim-to-Real Robot Policies with Generative Audio,研究内容为生成+多模态 Sim2Real,参与机构为加州大学伯克利分校 [7] - Pi 0.5: a Vision-Language-Action Model with Open-World Generalization,研究内容为VLA最优模型,参与机构为物理智能Pi [7] - Steering Your Diffusion Policy with Latent Space Reinforcement Learning,研究内容为生成模型+RL,参与机构为加州大学伯克利分校 [7] 具身智能行业技术焦点 - 行业关注方向包括具身智能相关的数据集、仿真平台、VLA、VLN、具身大脑、具身小脑、大模型、视觉语言模型、强化学习、Diffusion Policy等 [9] - 机器人应用领域涵盖机器臂抓取、姿态估计、策略学习、轮式+机械臂、双足机器人、四足机器人、大模型部署、端到端、规划控制等 [9][12]
纯血VLA综述来啦!从VLM到扩散,再到强化学习方案
具身智能之心· 2025-09-30 12:00
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Dapeng Zhang等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 | | | 1. 介绍 机器人学长期以来一直是科学研究中的重要领域。早期的机器人主要依赖预编程的指令和人工设计的控制策略来完成任务分解与执行。这类方法通常应用于简 单、重复性的任务,例如工厂流水线和物流分拣。近年来,人工智能的快速发展使研究者能够在图像、文本和点云等多模态数据中,利用深度学习的特征提取与 轨迹预测能力。通过结合感知、检测、跟踪和定位等技术,研究者将机器人任务分解为多个阶段,以满足执行需求,从而推动了具身智能与自动驾驶的发展。然 而,大多数机器人仍然作为孤立的智能体存在,它们通常为特定任务而设计,缺乏与人类和外部环境的有效交互。 为克服这些局限性,研究者开始探索将大语言模型(LLMs)与视觉语言模型(VLMs)引入机器人操作中,以实现更精准和灵活的控制。现代的机器人操作方法 通常依赖视觉-语言生成范式(如自回归模型 或扩散模型),并结合大规模数据集 以及先进的微调策略。我们将这些方法称为 VLA基础模型,它们 ...
产品和业务相似度极高,具身的内卷才刚刚开始......
具身智能之心· 2025-09-30 09:46
扛内卷,一个足够有料的社区 对很多转型或入门的同学来说,试错成本有点高。没时间和缺乏完整的体系是最大问题,这也容易导致少 数人才有机会到具身领域,如果想要卷赢那就更加困难了。 具身智能之心知识星球一致努力打造成超大的具身与机器人社区,是一个同时满足具身初学者学习和进阶 需求的地方。期望能够在大家最需要帮助的时候解决问题,求职的时候能够给出职位内推和辅导,升学的 时候可以给出信息和选择建议。一个产品,只有开发者每天都想着提升、优化,这样的产品才有持续的价 值,我们的社区亦是如此。这也是为什么日复一日的投入、更新都不足为够。 如果你也想和我们一起推动具身领域的进步,欢迎加入我们的社区团队,和我们一起推动!喜逢国庆和中 秋节节日, 我们推出了今年最大的优惠券给大家,欢迎微信扫码领取,还有少量~ 目前社区已经完成了产业、学术、求职、问答交流等多个领域的闭环。遇到什么问题就分享什么解决方 案,哪块研究最前沿,就给大家源源不断提供解决思路,还有求职岗位第一时间对接给大家!除了上面的 问题,我们还为大家梳理了很多其它的内容: 昨天在复盘一些具身领域公司的业务,不得不说,相关业务公司的数量已经着实不小了。国内算上做本体 和相 ...
邀请更多具身领域优秀创作者加入我们一起分享!
具身智能之心· 2025-09-30 09:46
具身智能之心是国内具身领域优秀的创作平台,致力于推动具身产业的发展、人才的培育。 我们高度重视产业和学术领域的最新进展,持续创作最新内容。一个产业的发展需要众人不断地持续推 进,具身智能之心诚邀学术界&工业界大佬加入我们一起创作,为全行业带来最专业和最有深度的工 作,让更多人受益。 主要创作内容 最新技术/paper分享、核心技术模块讲解、行业类分析文章、深度的技术栈分享; 联系我们 提供一定的稿费支持和个人IP扶持,加入我们的圈子和我们一起共享行业资源。更多详细内容欢迎添加 微信:oooops-life咨询。 ...
最后1个名额,即将开课!VLA方向1v6论文辅导来啦~
具身智能之心· 2025-09-30 09:46
最近有同学后台留言,刚开学导师跨行做具身,让自己先去摸索下,最好能产出论文和项目。没有基础最快能 多久出论文? 针对跨行或者新入门的同学,我们一直建议先把基础打好。然后找一些研究价值比较大的领域突破。特别是有 一定的工作基础、数据基础的领域,如果完全不成熟,没有人同行后期科研的难度很大。 从今年各个机器人与AI顶会来看,VLA及其相关衍生方向,占据了近一半的具身产出。特别是长程操作、泛 化、少样本、VLA+RL、人形相关。如果有同学不知道怎么选择方向,可以多关注这个领域!具身智能之心最 近也出品了一套1v6的科研辅导论文课程,也欢迎关注报名。 那么VLA是什么? 想象一下,如果能通过语言下达指令,并且丝滑执行任何你想要的动作,是一件多么幸福的事情!如果能长时 间连续动作完成,将会非常方便。下面给大家介绍下VLA到底是啥? VLA打破了传统方法的单任务局限,使得机器人能够在多样化的场景中自主决策,灵活应对未见过的环境, 广泛应用于制造业、物流和家庭服务等领域。此外,VLA模型已成为研究热点,推动了多个前沿项目的发 展,如pi0、RT-2、OpenVLA、QUAR-VLA和HumanVLA,这些研究促进了学术界与 ...
更为稳健,具备泛化!BumbleBee: 通用人形机器人全身控制范式
具身智能之心· 2025-09-29 10:08
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨 具身智能之心 专家学习 —— 首先在全数据上训练一个基础控制策略,作为专家模型的初始点。随后,针对聚类结果在各动作簇上分别微调,得到更具针对性的专家模型。接 着,将专家模型部署到真实机器人上执行以采集轨迹,并基于这些轨迹为每个类别单独训练动作增量模型,再冻结增量模型对专家进行微调,实现对仿真与现实间 偏差的补偿。通过迭代更新,专家模型在"更优策略—更高质量数据—更精准增量—再优化专家"的循环中逐步提升性能。 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 BumbleBee 提出了一条完整的人形机器人全身控制训练流程。首先,利用 AMASS 数据集训练基础的全身控制模型;在此基础上,通过聚类区分不同类型的动作, 并分别训练相应的专家控制模型;随后,将这些专家模型部署到真实机器人上,采集执行轨迹;基于采集的轨迹序列,为每个专家模型训练对应的动作增量模型 (delta model),以缓解仿真与现实之间的差距( ...