TARS AWE 2.0具身基础模型
搜索文档
1年融资17亿,“华为系”人形企业,如何用“刺绣”解题具身智能?
机器人大讲堂· 2025-12-26 11:05
公司概况与融资 - 公司名为它石智航,成立不足一年,已获得17亿人民币融资,创下中国具身智能行业最大天使轮纪录[2][4] - 核心团队由前华为自动驾驶系统CTO陈亦伦、前华为“天才少年”丁文超、前百度资深副总裁李震宇等组成,被誉为“AI全栈能力最强战队”[4][21] 技术展示与核心理念 - 公司通过展示全球首个实现自主刺绣的机器人来验证其技术能力,选择了一条与众不同的精细操作路径[2][4][5] - CEO陈亦伦表示,技术的终极检验标准是能否打造真正可靠、高效、可大规模部署的“有用”机器人,目标是为了“用”而非“秀”[4] 技术能力详解:刺绣与工业应用 - 完成刺绣需要机器人具备亚毫米级超高精准度、灵活协调的双手协同、精准应对柔性物体、细腻的力触控制以及在复杂长程任务中保持高成功率的能力[6] - 刺绣任务考验了机器人的力控能力(需应对轻薄柔性布料)和视觉定位与微操作精度(目标尺寸极小),这是上一代工业机器人难以逾越的鸿沟[8] - 展示刺绣是“能力的外溢”,其背后验证的技术矩阵可直接迁移到更具商业价值的工业场景,例如线束装配[8][9] - 线束装配因涉及高密度线缆接口的识别和精细插拔操作,被视为“工业自动化界的哥德巴赫猜想”,公司成为全球首个在该领域取得突破的企业[8] 系统性解决方案:DATA-AI-PHYSICS三位一体 - 公司提出了一套名为DATA–AI–PHYSICS的三位一体系统性解决方案,以应对软硬件协同的行业难题[10] - 方案核心逻辑:以海量、真实的数据(DATA)为基石,驱动强大的人工智能模型(AI),并通过为AI而生的硬件(PHYSICS),将数字世界的智能精准映射到物理世界[12] 数据(DATA) - 做具身智能的数据需求至少是自动驾驶的十倍,即100万小时高质量数据起步,最终目标是千万小时量级[13] - 公司采用以人为中心(Human-centric)的数据采集方式,构建了名为SenseHub的可穿戴具身数据采集系统,包括TARS-Vision和灵巧手TARS Glove/Glove2[14] - 该系统能在不改变人类操作方式、不额外搭建采集环境的前提下,持续记录包含视觉、触觉、动作、语言在内的多模态真实数据[14] - 基于此,公司沉淀出了全球首个大规模真实世界具身VLTA多模态数据集WIYH(World In Your Hands)[15] AI模型 - 公司构建了具身基础模型TARS AWE(AI World Engine)2.0,旨在解决当前具身智能模型普遍面临的三大瓶颈:空间认知差、流畅度和精准度不足、泛化能力弱[17] - AWE 2.0通过空间感知预训练构建机器人对世界的认知模型,并通过一段式全身端到端学习,将海量数据中学到的能力高效迁移到机器人本体,具备强大的泛化能力[17] 硬件(PHYSICS) - 公司提出“为AI而生(Designed for AI)”的硬件体系,以“最小 digital-to-physical gap”为核心设计原则[18] - 发布会亮相的A系列和T系列机器人搭载了全套自研核心部件与超级传感器组合[18] - 例如,自研的TAS关节实现了行业最小的扭矩脉动(额定扭距小于1/1000),打破了传动效率、位置控制和力控之间的“不可能三角”[18] - 灵巧手终端TARS Dex深度集成了视觉和触觉传感器,实现了感知与执行的一体化[18] 团队背景与行业洞察 - 核心团队完整经历过自动驾驶从研发到工程落地、再到规模化部署的全过程[21] - CEO陈亦伦提出关键类比:“现在的具身智能比较像2019年的自动驾驶”,即处于技术路线从传统规则方法全面转向AI驱动、数据为王的关键转折点[22] - 公司将自动驾驶领域被验证过的、代价高昂的经验带到了具身智能领域,从第一天起就确立了“数据是核心难点”的认知,并系统性地构建了Human-Centric的数据采集范式[23] - 公司的路径选择是从解决工业界棘手的“哥德巴赫猜想”开始,在真实、高价值的场景中逐步累积能力,构建一条泛化能力能够随规模持续提升、具备长期复利效应的技术曲线[23]