AFLoc
搜索文档
Nature子刊:王珊珊/张康合作开发新型AI模型,让AI自主找病灶,无需医生手动标注
生物世界· 2026-01-10 11:06
研究背景与问题 - 现有依赖专家注释的深度学习模型在开放临床环境中缺乏泛化能力 [3] 研究成果发布 - 中国科学院深圳先进技术研究院与澳门科技大学/温州医科大学团队于2026年1月6日在《Nature Biomedical Engineering》发表了一项研究 [3] 核心模型介绍 - 研究团队提出了一种名为AFLoc的通用视觉-语言模型,其特点是无需医生提前标注病灶即可自动定位 [4] - AFLoc模型基于多层次语义结构的对比学习,通过将多粒度医学概念与图像特征对齐来适应病理的多样化表现形式 [7] 模型验证与性能 - 模型在包含22万对影像-报告的胸部X射线数据集上进行了初步实验 [9] - 在涵盖34种胸部病理的8个外部数据集上验证,AFLoc在无需标注的定位和分类任务中优于当前最先进方法 [9] - 模型在组织病理学和视网膜眼底图像等其他模态上也展现出强大泛化能力 [9] - 在五种不同类型病理图像的定位任务中,AFLoc的表现甚至超越了人类基准 [4][9] 应用潜力 - 该成果凸显了AFLoc在降低标注需求以及适应复杂临床环境应用方面的潜力 [10]
医学影像诊断或将告别“手工标注时代”
环球网资讯· 2026-01-07 09:18
核心观点 - 中国科学院深圳先进技术研究院等机构联合开发出一种名为AFLoc的人工智能模型 该模型无需医生预先标注病灶 即可在多种医学影像中自动定位病灶并诊断疾病 有效减少了对大规模人工标注数据的依赖 为临床影像AI迈向自监督学习提供了新路径 [1][3][5] 技术原理与创新 - 模型通过“对照学习”同时学习医学影像本身和医生撰写的临床报告 从而理解疾病描述对应的影像区域 最终实现无需人工标注的病灶定位 [3] - 该技术有效规避了传统深度学习方法对大规模人工标注数据的依赖 显著提升了医学影像数据的利用效率与模型的泛化能力 [5] 模型性能验证 - 研究团队在胸部X光 眼底影像和组织病理图像三种典型医学影像模态上对AFLoc进行了系统验证 模型均表现出优异性能 [3] - 在胸片实验中 AFLoc在覆盖34种常见胸部疾病 涉及8个主流公开数据集的测试中 其病灶定位指标优于现有方法 并在多个病种中达到甚至超越人类专家水平 [3] - 在眼底影像和病理图像任务中 AFLoc同样展现出稳定的病灶定位能力 其定位精度优于当前主流模型 [3] 疾病诊断能力 - 除病灶定位外 AFLoc还展现出强大的疾病诊断能力 在胸部X光 眼底和组织病理图像的零样本分类任务中 其整体表现均优于现有方法 [3] - 尤其在眼底视网膜病变诊断中 AFLoc的零样本分类性能甚至超越了部分依赖人工标注数据微调的模型 [3] 行业影响与未来计划 - 该模型为临床影像AI从“依赖手工标注”迈向“自监督学习”提供了可行路径 也为构建更智能 更具通用性的医学人工智能系统提供了新的技术范式 [5] - 研究团队未来计划进一步推动AFLoc在多中心真实临床场景中的验证与应用 加速其向临床辅助诊断系统的转化落地 [5]