Nature子刊:王珊珊/张康合作开发新型AI模型,让AI自主找病灶,无需医生手动标注
生物世界·2026-01-10 11:06

研究背景与问题 - 现有依赖专家注释的深度学习模型在开放临床环境中缺乏泛化能力 [3] 研究成果发布 - 中国科学院深圳先进技术研究院与澳门科技大学/温州医科大学团队于2026年1月6日在《Nature Biomedical Engineering》发表了一项研究 [3] 核心模型介绍 - 研究团队提出了一种名为AFLoc的通用视觉-语言模型,其特点是无需医生提前标注病灶即可自动定位 [4] - AFLoc模型基于多层次语义结构的对比学习,通过将多粒度医学概念与图像特征对齐来适应病理的多样化表现形式 [7] 模型验证与性能 - 模型在包含22万对影像-报告的胸部X射线数据集上进行了初步实验 [9] - 在涵盖34种胸部病理的8个外部数据集上验证,AFLoc在无需标注的定位和分类任务中优于当前最先进方法 [9] - 模型在组织病理学和视网膜眼底图像等其他模态上也展现出强大泛化能力 [9] - 在五种不同类型病理图像的定位任务中,AFLoc的表现甚至超越了人类基准 [4][9] 应用潜力 - 该成果凸显了AFLoc在降低标注需求以及适应复杂临床环境应用方面的潜力 [10]

Nature子刊:王珊珊/张康合作开发新型AI模型,让AI自主找病灶,无需医生手动标注 - Reportify