Science Robotics|耶鲁大学开源视触觉新范式,看出机器人柔性手的力感知
机器人圈·2025-07-08 18:36
机器人视触觉传感技术突破 - 耶鲁大学提出" Forces for Free "( F3 )新范式,仅用标准 RGB 摄像头和优化柔性手爪即可实现精准力感知,硬件成本接近零 [1][2] - 系统能完成小孔插销(精度0.2N)、曲面擦拭(恒力1N)和书法写作等精细力控任务,平均力误差低至0.15N [14][15][17][19][21] - 相比传统F/T传感器(昂贵且笨重)和触觉传感器(易磨损),该方案通过软件算法解锁力感知能力 [2][5] F3柔性手设计优化 - 基于开源T42手爪改进,通过等长连杆设计和90°关节角优化运动学可操纵性,远离奇异构型确保形变可见性 [6][9] - 采用滚珠轴承替代金属销钉,将内部摩擦力从4.0N降至0.6N,减少迟滞效应提升力估算精度 [7][9] 视觉力感知算法架构 - CNN-Transformer模型处理20帧历史图像序列,通过时空关联解决"同形不同力"问题 [10][11] - 集成SAM视觉基础模型分割手爪区域,消除背景干扰并增强抗遮挡能力 [11][13] 应用前景与局限性 - 当前支持二维力感知(10Hz响应),未来可扩展至三维力/力矩估算及多指灵巧手应用 [22] - 完整开源方案包含硬件设计、算法代码和数据集,显著降低研究门槛 [22][23]