Workflow
具身智能之心
icon
搜索文档
大摩预测仅本体硬件营收,高达25万亿美元
具身智能之心· 2026-01-08 17:30
点击下方 卡片 ,关注" 具身智能 之心 "公众号 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 最近具身社区里有同学提出了一个很有意思的问题:"大型科技与人工智能公司才刚刚开始涉足实体领域 吗?" 这个问题也引发了大家的讨论。今天峰哥就和大家聊聊这个话题,也欢迎感兴趣的同学加入我们的社 区一起交流~ 结合摩根士丹利《机器人年鉴》的相关资料,可以明确以下信息: 大厂实体化布局已持续推进 从技术演进路径看,全球大型科技与AI公司(如谷歌、OpenAI、苹果等)的布局并非刚刚起步,而是呈 现"数字-实体"的进阶脉络:2022-2024年聚焦聊天机器人等数字产品,2025年后逐步拓展至可穿戴设备、移 动设备。当前已进入灵巧机器人阶段,2030年后将深入人形机器人及多形态机器人领域。 实体布局需依托全产业链资源支撑 机器人市场规模增长潜力显著 摩根士丹利预测,至2050年全球机器人仅硬件端营收即可达到25万亿美元(包含后面大的ai公司入局)。其 中2030年将突破5000亿美元,2040年约达9万亿美元,实 ...
CES2026上,中国具身企业拉爆海外......
具身智能之心· 2026-01-08 17:30
点击下方 卡片 ,关注" 具身智能 之心 "公众号 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 1月6日,美国西部时间10点。拉斯维加斯迎来了属于科技产业的年度高光时刻:2026年美国消费电子展(CES 2026)。 今年的热度空前,AI+硬件成为主要topic,还有一个亮点就是"中国品牌太多了"。 本届CES参展商总数超过4000家,其中中国企业参展总数达到942家,占比约22%,是全球第二大参展国。 从展示技术到秀产品 CES2026中,不乏各类优秀的中国产品,和以往不同,本次则更关注产品的落地能力。中国智造的声音也越来越响。 1)具身领域 本次参展的38家人形机器人展商中,有21家来自中国,占比达55%; 今年参展的中国具身企业已不再满足于"秀技术",开始用工程交付能力、场景复用能力、和真实商业现场运行能力,来定义行业的竞争坐标。现场众多优秀的具身 企业,争先被海内外媒体报道。 其中来自中国苏州的优理奇机器人(UniX AI)在CES亮相后迅速成为全球媒体关注的焦点。开馆初期便被纳入CES官方 ...
开源1万小时具身智能数据,这家公司是为了什么?
具身智能之心· 2026-01-08 12:23
编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 想象一下,你正在训练一个未来的家庭机器人。你希望它能像人一样,轻松地叠好一件衬衫,整理杂乱的桌面,甚至系好一双鞋的鞋带。但最大的瓶颈是什么? 不是算法,不是硬件,而是数据 —— 海量的、来自真实世界的、双手协同的、长程的、多模态的高质量数据。 因此为了整个具身智能探索加速,开源集合成为了大家的共同选择,从谷歌 Open-X Embodiment、智元 AgiBot Digital World,到智源 RoboCOIN 与它石智航的 World In Your Hands,都在试图构建更庞大、更完善的数据集合,并开源给到全行业。 但在 1 月 6 日,有一家公司将这件事做到新高度,进行了超过 1 万小时、接近百万 clips 的具身数据集合开放,这是行业最大规模、也是泛化程度最高的开源数据 集合,它就是 简智机器人的 "10Kh RealOmni-Open DataSet" 。 ( 下载地址为: https://huggingface.co/datasets/genrobot2025/10Kh-RealOmin-OpenData ,其他数据正在 ...
细节铺满!行业首个开源的灵巧操作真机数据集,解决机器人“看得见摸不准”的问题
具身智能之心· 2026-01-08 12:23
点击下方 卡片 ,关注" 具身智能 之心 "公众号 纯视觉的灵巧手,锁死了五指操作的上限。 人类的五指结构,是自然界长期进化筛选出的 "操作最优解"。 五指灵巧手作为最泛化的末端形态,是具身智能真正迈向全人形智能的关键一环,同时也是真实场景驱动下 的 "精细化操作需求" 。 但灵巧手操作太难了,主要有三点: ★ 灵巧操作受限于"看得见摸不准" 近日,乐聚机器人联合开放原子开源基金会, 正式开源首批800条高质量力触觉灵巧操作数据集 ,该数据集 已在 乐聚OpenLET社区 上线,向行业开发者、科研团队开放获取。后续计划开源涉及工业场景的更多数据集 ★ 首先,灵巧手硬件还没有收敛,市面缺乏成熟稳定的产品; 其次,模型训练比较困难,纯视觉无法有效利用灵巧手的传感器信息; 最后,也是尤为关键的一点, 没有数据 ,开源数据少,数采很困难,并且大部分开源数据没有力触; 资源。 这是国内首次面向真实作业场景的人形机器人灵巧操作真机数据 ,比较精准的填补了领域高质量灵巧操作数 据的迫切需求, 26年大概率会是灵巧操作研究爆发的一年。 atmogit链接:https://ai.atomgit.com/lejurobot/LE ...
SOP:具身智能在线进化新范式,为大规模真实世界部署而生
具身智能之心· 2026-01-08 12:23
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨 具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 从开源具身世界模型平台,到发布大小脑系统,我们一直致力于为机器人构建更强的 理解能力与决策能力 。过去一段时间,社区用户基于这些基础 设施已经构建了很多令人印象深刻的 Demo,也验证了世界模型作为模拟器、大小脑系统作为控制器的可行性。当机器人走出实验室,走向开放、 复杂且持续变化的真实世界时,一个更核心的问题随之出现:如何真正实现通用机器人的规模化部署与智能化运行。 现有 VLA 预训练模型已经提供了强大的通用性。但 真实世界的部署受困于更高的任务专精度要求,以及离线数据采集方式的边际效益递减 ,往往需要通过后训练 获得更高的任务成功率。遗憾的是,当前主流的 VLA 后训练方法仍受 离线、单机、串行采集等因素制约 ,难以支撑高效、持续的真实世界学习。 这些限制并非源自具体算法,而是来自 学习范式本身 。 SOP:分布式在线后训练框架 SOP 的 ...
VLA+RL技术交流群来啦~
具身智能之心· 2026-01-08 12:23
具身智能之心VLA技术交流群来啦~欢迎VLA模型、VLA+RL、轻量化与部署方向的同学加入! 添加小助理微信AIDriver005,备注:昵称+机构+进群。 ...
星源智正在打造一双具身“会思考,能用的手”
具身智能之心· 2026-01-07 18:00
在本次活动上,征和工业正式发布了全球首创链式灵巧手——臻手・CHOHO Hand, 该产品兼具高承重、 高抗力、高可靠、高耐久、高精度、高能效、低自重、低成本八大核心优势,成就灵巧手行业全能"八边形 战士"。与星源智的合作,将借助后者在具身智能模型领域的技术优势, 为灵巧手注入自主感知、规划决策 和自适应能力 ,为人形机器人、协作机器人、机械臂等提供系统性末端泛化执行方案。同时,双方还将联 合开展灵巧手大模型的研发,推进在实际场景中的测试训练与迭代优化,确保技术与市场需求精准匹配。 在具身智能产业加速落地的关键阶段,机器人的高质量发展已超越"硬件+软件"的简单叠加,而是跨领域资 源整合、协同研发与优势互补的深度联动。此次星源智与征和工业的携手,实现了硬件性能与软件智能的 双向赋能,打通了灵巧手从技术创新到产业化应用的关键链路,为具身智能行业规模化落地按下"加速键"。 .... . . . . ® CHOHO 青岛征和工业股份有限公司 & 北京星源智机器人科技有限公司 签约仪式 CHOHO 星源 智 タり 存、 波 E > ALLA 点击下方 卡片 ,关注" 具身智能 之心 "公众号 1月6日," 具身智能灵巧 ...
为什么π系列对行业产生了这么大的影响?
具身智能之心· 2026-01-07 15:02
>> 点击进入→ 具身智能之心 技术交流群 点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 但pi貌似不"听话",不好调,总是达不到预期效果。这个事情,是很多同学持续在吐槽的。不少同学说,相当多的时间"浪费"在踩 坑上了。 想要基于pi系列,完成数据、VLA模型训练优化、部署一整套任务,对很多初学者来说非常困难。有的同学甚至踩了半年坑都无法真的 入门,更不用说取得较好效果。 ★ 其模型能力引领通用机器人从实验室走向工业制造、家庭服务等实景应用,成为 2025 年来业界众多 VLA 模型的核心参考。学会 π 系列 模型,即掌握 VLA 模型的核心根基,更能为科研创新、求职就业、工业落地赋能添翼。 不少公司基于pi系列搭建自己的真机demo,比如叠衣服、拆箱子等,或基于这个思路改进优化。physical intelligence的每次新工作发布, 都会引起行业反响。 ★ 2024.10 π0:首创 Flow Matching 连续动作轨迹预测,突破传统离散动作精度瓶颈,为精密制造、自动驾驶等场景提供毫米级操作基础; 2025.04 π0.5:异构任务协 ...
会跳舞、能演讲!RoboPerform 让人形机器人听懂声音,即兴解锁双重技能
具身智能之心· 2026-01-07 15:02
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Zhe Li等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 ★ 本文的主要作者来自北京智源人工智能研究院、哈尔滨工业大学、香港科技大学、上海交通大学、北京大学和悉尼大学。本文的第一作者为北京智源人工智能 研究院的实习生李哲,主要研究方向为具身智能和3D数字人。共同一作是哈尔滨工业大学的韦杨扬。本文的通讯作者为北京大学计算机学院研究员、助理教授 仉尚航和北京智源研究院研究员迟程。 行业痛点:多阶段流程带来的信息损失 当爵士乐的节拍响起,人形机器人即刻舒展肢体,抬手、转身、踏步精准踩中每一个鼓点;当演讲者的话音落下,它又能顺着语调的抑扬、话语的重音,自然抬 手、侧身、点头,用恰到好处的肢体语言强化表达。 这不是科幻电影里的片段,而是 RoboPerform 正在实现的现实。 它打破了人形机器人 "照本宣科" 的动作困境,既让机器能随音乐即兴起舞,也能配合语音生成自然手势,真正听懂声音的情 ...
从10,000小时到2天,灵初智能如何让数采效率狂飙200倍?
具身智能之心· 2026-01-07 11:33
点击下方 卡片 ,关注" 具身智能 之心 "公众号 当具身的上限被数据左右时,一定会有越来越高效的采集方案。这不仅仅是机器人领域的趋势,还是整 个以"数据为驱动"产业的基因。 具身智能行业有一个众所周知的困境,就是数据不够。 当具身智能的上限被数据锁死,一场关于"数采效率"的军备竞赛便成了必然。 这不仅是机器人学的技术演 进,更是所有"数据驱动型"产业刻在基因里的进化逻辑。 然而,理想与现实的鸿沟正横亘在每一位从业者面前。无论是基座模型还是规模化的高质量数据,都在一边 发展一边优化。 当前,在开发的不同阶段和需求下,我们看到具身智能行业大致形成了几种数采路线:UMI、真机遥操、人 类视频、仿真生成等,但它们各有限制: 机器人要完成灵巧操作的学习,必须要从训练数据中找到线索。这个线索可以是抓取的力量、目标物体 的纹理与颜色、每个指头的协调运动以及不断的视角切换。 机器人若要习得真正的"灵巧",必须从数据中寻得线索。 如果我们要求机器人像人一样思考,就必须先赋予 数据"人性"的颗粒度。 近期,灵初智能一套便携式外骨骼穿戴设备的出现,正试图打破僵局。拟人臂、触觉手套、同构外骨骼…… 这不仅是硬件的升级,更是将数采维 ...