机器人操作之眼AC2
搜索文档
人形机器人手眼协同的难题,速腾聚创给出了新解法|CES 2026
钛媒体APP· 2026-01-11 11:43
行业趋势:AI与具身智能成为CES核心焦点 - AI连续三年成为CES绝对主角,供应链技术与消费终端均围绕AI展开 [1] - 2026年CES上,AI进入落地时刻,具身智能成为最大看点之一 [1] - 中国企业在此次CES上表现突出,引领本轮具身智能革命 [1] 公司战略:速腾聚创的业务转型与定位 - 公司从以激光雷达为主的收入结构,逐步转向机器人相关部件与解决方案并重的发展模式 [3] - 公司定位为供应链企业,目标是在机器人领域创造更多增量,提供增量组件如“眼”(视觉系统)、“手”(灵巧手)和关节等 [9] - 未来机器人业务预计将超过激光雷达,成为公司主要收入来源 [9] 技术展示:CES上的全流程物流配送演示 - 公司在CES 2026上全球首次公开展示其具身智能技术,演示了物流即时配送全流程模拟场景 [4] - 机器人可全流程自主完成从礼品打包、运送、拆包到箱子回收的长程任务,无需人为辅助或遥操作 [3][4] - 该演示被认为是目前无遥操现场演示中最长的连贯操作 [3] 核心技术:解决“最后100米”配送难题的方案 - 物流配送的“最后100米”目前依赖人力,存在配送员短缺问题,机器人被视为弥补未来配送缺口的关键 [4] - 解决方案的核心难点在于机器人上半身的“手眼协同”,要求毫米级操作精度,远超下半身移动方案所需的厘米级容错 [5] - 公司自研的“手眼协同”方案整合了VTLA-3D操作大模型、机器人之眼Active Camera及多自由度灵巧手等核心技术 [3] 核心部件:机器人操作之眼与灵巧手 - 机器人操作之眼AC2集成了全固态dToF激光雷达、双目RGB相机、IMU的超级传感器系统 [5] - AC2在8米探测范围内保持±5毫米的稳定测距精度,旨在突破跨复杂场景精细操作难题 [5] - 灵巧手配备多组力触觉点阵,触觉信号反馈解决了视觉盲区问题,确保操作柔顺精准 [7] - VTLA-3D操作大模型与Active Camera生成的3D彩色点云融合,提升了高灵巧操作的成功率 [7] 系统能力:任务规划与抗干扰性能 - 公司在VTLA-3D操作大模型基础上训练了任务规划AI,可将复杂抽象任务拆解为原子化子任务并调度执行 [8] - 形成了“快慢双系统”,兼顾长程规划与精准操作能力 [8] - 在CES复杂现场环境下的连续性演示,验证了其解决方案的抗干扰能力 [8] 商业化进展与财务表现 - 最新季度财报显示,公司机器人及其他领域销量达3.55万台,同比增长393.1% [9] - 机器人等领域收入占比逐步提升 [9] - 公司海外收入同比增长超过100% [9] - 公司过去在激光雷达领域积累的成本和技术优势,被认为将有助于其在机器人增量部件领域的发展 [9]
从特斯拉GEN3到宇树H2,机器人之眼进化路逐渐清晰
机器人大讲堂· 2025-10-25 21:31
宇树H2人形机器人技术亮点 - 最新发布的H2人形机器人具备双脚离地的高动态旋转跳舞能力,运动控制算法可实时调整步态以适应凹凸路面[1] - 采用2自由度铰接式琴颈和内嵌头部的机器人之眼方案,头部可左右偏航和俯仰,实现更灵活的环境感知[1] - 基于头部灵活性和新型机器人之眼,H2可实现360度环境感知,无需转动躯干即可跟踪物体及环境[1] 机器人之眼技术路径演进 - 机器人之眼技术路径分为视觉和激光雷达两大分支,纯视觉方案存在精度、计算量和实时性挑战[3] - 视觉传感器无法直接获取精确距离信息,在光照变化、纹理缺失环境中易失效,且数据同步性差导致模型扭曲[3] - 激光雷达通过发射接收激光束直接获得数百万个点的三维坐标,形成点云,提供精确、主动的3D空间测量[4] - 激光雷达方案可实现视觉与深度信息的空间同步,例如摄像头识别物体后,点云即刻提供轮廓和位置数据[4] dToF激光雷达的技术优势 - dToF激光雷达方案解决了测距精度、抗干扰性与算力效率三大痛点,是机器人实现复杂操作的基础[6] - dToF通过直接测量激光飞行时间,在强光、弱光等复杂光照下提供稳定深度信息,具备鲁棒性和抗干扰能力[6] - dToF方案对算力要求远低于其他方案,为移动机器人释放计算资源,支持高级认知与决策[6] 多传感器一体化集成趋势 - 传统"软同步"方式存在数据时序和坐标错位问题,导致深度点云与图像像素间出现空间偏差[7] - 一体化集成采用硬件层面"硬同步",通过主控芯片统一触发dToF激光雷达、RGB相机和IMU同步采集数据[7] - 速腾聚创发布的AC2是业内首款dToF+RGB双目+IMU一体化超级传感器系统,同步精度达1毫秒[8][9] - AC2可实现深度与图像信息高度时空对齐,消除时空错位,使机器人感知的每个像素具备精确深度信息[9] 机器人之眼的全场景应用能力 - AC2传感器使机器人能感知牙刷、衣架等细小物体及玻璃、金属等高反射率物体,并在大幅动作时保证图像不畸变[11] - 基于dToF深度感知,AC2具备抗环境光干扰能力,在弱光、强光等复杂光照下表现稳定,且满足IP65防尘防水等级[11] - 一体化方案有望消除点云畸变,为动态交互奠定基础,同时通过紧凑硬件形态为大规模普及扫清障碍[11] 人形机器人感知能力未来方向 - 全场景全工况下的高精度高一致性感知成为扩展机器人操作范围的必备前提,要求毫秒级反应速度和毫米级空间精度[12] - 机器人需构建不断更新的精确内部"世界模型",包含几何结构、动态物体特征等,以预判环境变化[12] - 高度时空对齐的感知数据支持机器人实现流畅动态交互,如接球或从人手中接物等手眼协调任务[13] - 机器人之眼需平衡精度、抗干扰和效率,从而支持机器人及时"看清并且反应"[15] - 融合感知方案推动机器人从执行工具向自主智能体演进,为决策、规划与交互提供可靠支撑[15] - 未来高度融合的机器人之眼将成为机器人理解世界的"认知窗口",推动从"功能机"向"智能体"跃迁[16]