模型发布与核心优势 - 公司于2025年9月17日正式开源发布EchoCare "聆音"超声基座大模型,该模型基于超过450万张、涵盖50多个人体器官的大规模超声影像数据集训练而成 [2] - 模型在10余项典型超声医学任务测试中性能全面登顶,并已完成3000多例临床回溯性验证,与当前最优模型相比性能平均提高3%至5% [2] - 模型首创结构化对比自监督学习框架,解决了传统超声AI模型对大规模标注数据的依赖、长尾分布问题、模型泛化能力不足以及缺乏领域知识等技术难题 [2] 超声AI行业发展困局 - 超声诊断在我国医学影像领域占据核心地位,年检查量已超20亿人次,占医学影像检查总量的70%以上 [4] - 行业面临数据枷锁与泛化死结,超声图像的多变性导致传统AI模型面临碎片化开发困局,设备厂商信号算法差异和医师操作变量使相同解剖结构呈现不同特征 [5] - 现有解决方案如MedSAM、BioMedCLIP、USFM等存在明显短板,训练数据量普遍低于100万张且多集中于单一部位,未能针对超声特有噪声和临床推理逻辑进行优化 [6][7] 技术突破:数据与架构创新 - 公司构建了全球规模最大的超声图像数据集EchoAtlas,包含超过450万张图像,涵盖五大洲20多个国家、4大人种、9大区域56个解剖器官、5大模态和130种设备 [10] - 创新设计层级化双分支架构,图像编码器以SwinTransformer为骨干,双分支解码器分别学习像素级特征和模拟医师诊断思维,层级化损失函数解决多任务优化问题 [12] - 采用两阶段训练策略,全局预训练阶段首创结构化对比自监督学习框架,下游任务微调阶段仅需原训练量40%至60%即可快速适配新任务 [14] 临床验证与性能表现 - 在解剖分割任务中表现卓越,甲状腺结节分割DSC达83.17%,血管分割mDSC指标82.24%,均显著高于对比模型 [17] - 疾病诊断能力突出,甲状腺结节良恶性鉴别AUC达86.48%,F1分数87.45%,假阳性率仅8.3%,<1cm恶性结节检出率达82.1%,比现有模型高11.3% [18] - 定量分析精准度高,胎儿心胸比测量误差<5%的病例占89.2%,测量时间从5分钟缩至2秒,左心室射血分数计算MAE比USFM低19% [19] - 临床适配性强,单张图像分析<0.5秒满足实时需求,用60%标注数据即可达传统模型100%数据性能,血管分割仅需40%数据实现80%性能上限 [21][22] 行业影响与发展趋势 - 该研究公开的数据集和模型代码将打破超声AI领域的数据壁垒和技术垄断,推动更多科研机构和企业参与创新 [29] - 超声AI未来将呈现三大发展趋势:从专用模型到通用基础模型,从数据驱动到数据-知识双驱动,从被动辅助到主动决策支持 [26] - 技术有望在基层医疗、远程诊断、慢性病管理等场景中发挥重要作用,最终从图像分析工具进化为全流程临床决策伙伴 [29]
CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶
机器之心·2025-09-30 16:45