FlexiRay
搜索文档
NC重磅,浙江大学机械工程学院Grasp Lab赋予软体夹爪“类人感知”:大变形下的全覆盖多模态触觉突破
机器人大讲堂· 2025-12-28 20:30
核心观点 - 浙江大学Grasp Lab研发的视触觉一体化软体夹爪FlexiRay,通过“光学系统-柔性结构-AI感知”的深度融合,成功解决了软体机器人领域结构柔顺性与感知精确性难以兼顾的核心矛盾,实现了“全域感知、柔顺操作”[3] - FlexiRay创新性地结合仿生Fin Ray效应与多反射镜光学阵列,将大变形导致的视觉遮挡劣势逆转为设计增益,在剧烈形变下有效感知覆盖率超过87%,并复现了人手的五大核心触觉模态[3][5] - 该技术具备低成本、易制造、高耐用(超40,000次循环测试)的特性,商业化潜力高,有望推动机器人手从“执行末端”向“智能感知终端”进化,应用于农业采摘、家庭服务、工业装配及远程医疗等多个领域[14] 技术原理与结构创新 - **设计理念革新**:突破“限制形变以保视觉”的传统思路,通过系统级优化,利用形变来解决软体抓手大变形导致的视觉遮挡难题[5] - **光学结构创新**:采用“单相机+多反射镜”构型,通过构筑分段式多反射镜阵列实施被动式光路补偿,使得无论手指如何弯曲变形,都能通过直射和反射光路的互补,实现对接触区域的连续监测[5] - **感知性能指标**:在极端形变下,其有效感知覆盖率仍稳定在87.2%以上,彻底解决了柔性视触觉传感器的“视野盲区”痛点[5] 多模态感知能力 - **感知模态**:仅凭一颗内置摄像头,结合深度学习算法,即可解耦并复现人手的五种关键触觉:力觉、接触位置、纹理、温度和本体感觉[7] - **力与位姿感知精度**:实现了0.17 N的法向力估计精度、0.96 mm的接触定位精度,以及定位误差仅0.24 mm的实时手指空间形变重构能力[7] - **温度与纹理感知**:传感层融合热敏变色材料与铝粉反射层,具备1.17°C精度的温度感知能力和精细纹理识别能力,在物体分类测试任务中准确率达96.7%[7] 交互操作与应用演示 - **柔顺抓取与安全交互**:得益于Fin Ray结构的被动适应性与高灵敏度力控,能安全抓取薯片、蛋糕、生鸡蛋等易碎物体,并能感知羽毛接触的微小力并做出安全闪避动作,实现“人机共融”[8] - **智能遥操作**:在复杂的泡茶演示任务中,为操作者提供力、位置、形变及温度在内的全方位反馈,即便在视觉遮挡下也能凭借触觉完成盲操作,并准确辨别水温,展示了在远程医疗、危险处置等领域的应用潜力[10] 研发团队与背景 - **研发机构**:FlexiRay由浙江大学机械工程学院机器人抓取实验室(Grasp Lab)独立研究并撰写,该实验室聚焦于“感知-推理-操作”全链条技术突破与工程化落地[15] - **团队成果**:研究团队已在国际机器人领域顶级期刊和会议(如IJRR、T-RO、NC、RSS)上发表一系列高质量成果[15] - **作者信息**:论文第一作者为王彦哲、郭昊天、吴浩(三者共一),通讯作者为实验室负责人董会旭博士,其为浙江大学“新百人计划”研究员、博士生导师,并入选国家高层次青年人才计划[15]