对标英伟达EgoScale数据路径,清华系孵化星忆科技拿到首轮融资
暗涌Waves·2026-03-27 08:48

行业核心趋势与范式迁移 - 具身智能行业的关注点正从单纯追求数据规模,转向谁能将Human-centric/Ego-centric数据转化为高自由度、高精度、低成本、可训练的数据资产,这是一场明确的数据范式迁移 [3] - 其中,以人类第一视角、真实物理交互和多模态感知为核心的Ego-centric数据,正迅速成为最关键的数据采集路线,因其能提供机器人学习真实世界精细操作所需的接触与控制细节 [3] - 行业头部玩家已同时将目光转向Human-centric data,其稀缺性在于需要同时满足真实、精细、可规模化生产并被模型直接消化 [3] - NVIDIA Research在2026年发布的EgoScale框架,使用20,854小时带动作标注的第一人称人类视频进行训练,验证了数据规模与验证损失间接近对数线性的scaling law,推动了该路线的热度 [2][10] 星忆科技公司概况与定位 - 公司是一家聚焦Ego-centric数据采集的创业公司,近期完成千万级首轮融资,由水木创投领投,神州数码旗下钥卓资本等跟投 [4] - 公司定位为“具身智能的物理数据基础设施”,核心是通过自研高精度穿戴设备与数据引擎,将人类生产力经验转化为机器人可学习的数字养料 [8] - 公司孵化自清华大学计算机系,创始人及团队技术班底来自清华、北航等高校,并拥有智元机器人、镁伽机器人等产业经验,团队累计在CVPR等顶级会议发表论文70余篇 [4][5] - 公司核心能力在于将“数据—模型—产品—商业化”的关键链路整合在同一个组织内,形成了从采集到训练的完整闭环能力 [4] 技术路径与核心优势 - 技术路径对标英伟达EgoScale,但差异在于:不只采集视觉,而是融合视觉、触觉与姿态;不做二指夹爪式UMI路线,而是追求高自由度基础上的高精度;并试图打通从采集到训练的完整闭环 [6][12] - 公司认为真正有价值的真机数据需同时满足五个条件:真实、精准、高自由度、低成本、可训练,当前优势集中在精度与自由度两端 [6] - 在多模态融合上,公司强调触觉对于精细操作不可或缺,它提供接触状态、摩擦变化等信息,是视觉的终点和力控的起点 [14] - 公司在手部理解等关键技术上具备优势,能在长序列、强接触条件下实现毫米级标注,其数据引擎的标注成本仅为传统人工方式的几百分之一,同时精度更高 [13][18] - 公司自研的EgoKit多模态数采套件能在真实生产场景中佩戴采集,支持戴手套情况下的高精度手势识别,这对多模态系统的精度、时延和成本提出了综合挑战 [12][15][17] 市场策略与发展规划 - 公司的商业化路径清晰:第一步服务高校和顶级实验室;第二步切入机器人本体和模型厂商;第三步触达最终场景方,旨在建立从数采工具到在线引擎再到场景落地的完整商业闭环 [30] - 产品和服务包括售卖穿戴硬件和成品数据集,对于只想提升模型训练效果的客户,可直接购买数据集并获得技术支持 [30] - 公司计划在今年陆续开源1000至10000小时的高精度数据集,以推动行业共建地基 [21] - 公司判断具身智能落地节奏为“3年进工厂,5年进家庭”,目前行业整体仍处于POC阶段,端到端方案准确率通常在70%–80% [34] 行业竞争与公司视角 - 公司区别于UMI等路线的核心在于目标函数不同:UMI优先解决低门槛、可迁移;而星忆优先解决在高自由度前提下,将决定精细操作上限的多模态信号采全、采准、采成可训练资产 [28] - 公司认为行业竞争底层是“把真实世界经验转化为机器人能力的系统效率竞争”,其团队竞争力在于打通了学术、工程和产业间最难衔接的链路,形成了闭环能力 [35] - 公司认为行业最终需要生态共建,难以单打独斗,需要国家队、产业生态一起打造 [33] - 在数据规模上,公司认为最终需要约一亿小时最高质量的数据来形成“具身基因”,而非简单的数据堆砌 [32]

对标英伟达EgoScale数据路径,清华系孵化星忆科技拿到首轮融资 - Reportify