人工动觉
搜索文档
Nature Reviews Bioengineering | 香港中文大学任洪亮团队提出人工动觉框架,突破视觉依赖
机器人大讲堂· 2026-02-14 17:25
行业技术瓶颈与机遇 - 当前主流手术机器人存在“视觉依赖”困境,高度依赖高清摄像头和深度学习算法识别解剖结构,但缺乏人类外科医生般的“触觉感知”能力,在面对变形组织、视野遮挡、术中出血等真实手术场景时,其适应性和安全性受到严重限制[4] - 香港中文大学任洪亮教授团队在《Nature Reviews Bioengineering》发表评论文章,系统性提出“人工动觉”分层框架,为解决上述核心难题提供了全新思路,为下一代智能手术机器人的研发奠定了基础[4] 人工动觉框架核心内容 - 人工动觉框架旨在构建一套涵盖“物理感知 - 算法解读 - 协同控制”的分层系统,让机器人不仅能“看见”,更能“感知”和“理解”手术过程中的物理互动,以复刻人类外科医生的多感官协同能力[5] - **物理感知层**:核心是让手术器械具备“感知能力”,通过集成形状传感技术实现“本体感知”,以及借助仿生触觉感知技术实现“外感受”,以捕捉器械与组织的接触力、顺应性动态等丰富物理信息,打破单纯依赖视觉的数据局限[8][9] - **算法解读层**:需要突破传统的“信号纠错”思维,构建类似人类的分层处理机制,不仅对力和运动数据进行实时调整,更要从中提取语义信息,真正实现对器械-组织互动的“理解”[10] - **协同控制层**:提出将连续的力和运动信号离散为“动觉tokens”,构建“视觉-动觉-语言-行动”多模态模型,通过高层模型负责复杂任务规划和语义推理,低层控制器负责高频运动执行,形成闭环控制,实现离散认知与连续物理交互的协同[11] 技术发展前景与影响 - 人工动觉框架的提出,为自主手术系统的发展指明了方向,未来的手术机器人将不再是“视觉主导的执行者”,而是具备多感官协同感知能力的“智能伙伴”[12] - 随着人工动觉技术的不断发展,手术机器人将真正实现从“视觉依赖”到“多感协同”的跨越,为智能微创手术带来革命性变革[13] 相关研究团队与产业生态 - 该评论由香港中文大学电子工程系刘唐有博士、袁思申博士、任洪亮教授共同完成,研究得到国家自然科学基金、香港研究资助局、香港中文大学等项目支持[12] - 文章末尾列举了广泛的机器人产业生态企业,涵盖工业机器人、服务与特种机器人、人形机器人、具身智能企业、医疗机器人企业及上游产业链企业,显示了该技术所处的广阔产业背景[21][22][23][24][25][26]