情境数采
搜索文档
与Physical Intelligence同日发声:深度机智亮出「情境数采」杀手锏,具身智能的通用性天花板要被捅破了?
机器之心· 2025-12-18 18:15
行业核心挑战:具身智能的通用性难题 - 具身智能通往通用性的征途正被“数据荒漠”所阻隔 模型在模拟器中表现出色但在现实复杂场景中频频失败[1] - 行业通用性突破受限于物理世界交互数据的极度稀缺 合成数据与离线遥操作存在采集效率低、场景单一化、任务真实性弱等瓶颈 导致模型易陷入过拟合 仅学会特定轨迹而非操作逻辑[3] 公司解决方案:情境数据采集范式 - 深度机智倡导以“第一视角人类经验”为核心的情境数采模式 主张数据应是带有丰富环境语境与因果关系的逻辑流 而非孤立的动作切片[3] - 公司与北京高校联合成立“具身智能数据采集示范中心” 旨在通过人类第一视角为主、多视角辅助的真实情境多模态数据采集 筑牢数据根基[3] - 该模式强调动作发生的“前因后果” 是合作最核心的技术增量[4] 技术实现路径与数据引擎 - 示范中心依托自研的DeepAct数据引擎 在实验教学、工程实践等真实场景搭建标准化采集体系[5] - 技术逻辑是“全面向人类看齐” 核心在于高质量、多样化数据的规模化供给 以让模型习得人类与物理世界交互的高效逻辑[7] - 通过多维感知融合 以佩戴式第一视角设备协同多角度观测位同步采集多模态信息[8] - 通过“情境标签”为每一帧数据植入场景记忆 记录环境背景与交互逻辑 使模型能理解动作背后的物理约束 实现真实物理世界的World Context as Prompt[8] 数据价值与实验验证 - 公司内部实验表明 用大规模精细标注的第一视角人类经验数据增强基座模型的物理智能 可实现向机器人异构执行器的高效迁移[7] - 此结论与Physical Intelligence同日公布的最新研究发现不谋而合 共同验证了“人类经验数据驱动通用智能”的可行性[7] 公司背景与业务进展 - 深度机智是北京中关村学院和中关村人工智能研究院孵化的第一家高科技企业[10] - 公司自去年底筹办伊始就在支持下深入开展以人类第一视角数据为核心的物理智能增强研究 目前已基本趟通人类数据驱动通用智能的技术全链路[10] - 公司正通过其自研的DeepAct数据引擎 在全国十多个城市、数百个场景大范围采集真实情境人类数据 持续扩大数据规模[10] 行业展望 - 当带着场景记忆的第一视角多模态数据持续积累 并通过全链路处理和模型创新最大化数据价值时 具身智能的通用性突破将不再遥远[12] - 行业有望使机器人从“机械模仿”中解脱 在“情境数采”赋能下实现真正的技能涌现 走向能举一反三的通用物理智能新时代[12]