文章核心观点 - 行业专家普遍认为“AI+医疗”应遵循“用其长、防其短”的原则,明确AI作为辅助工具的定位,绝不能替代医疗从业者,同时需加快完善全链条动态监管机制以应对风险与伦理挑战 [1][2][10] “AI+医疗”应用边界与定位争议 - 争议源于医疗行业“安全优先”的本质与AI技术“快速迭代”特性间的矛盾,核心问题包括价值导向(优先医生培养还是患者获益)、角色定位(效率工具还是潜在主导者)以及风险管控策略 [2] - 有观点反对年轻医生系统性依赖AI,担忧其临床思维训练受阻或被误导,但反对意见认为若AI能实质性帮助患者则不应拒绝使用,医生的成长不应以当前患者为代价 [1] - 专家强调AI的核心边界是“建议权而非决策权”,AI可提供数据支持、诊断参考和风险预警,但最终诊疗决策必须由医生结合患者具体情况作出 [4][5] 行业发展现状与政策支持 - 截至2025年12月5日,累计已有207款人工智能医疗器械获得国家三类医疗器械注册证,AI在生物制药、辅助诊断等领域步入成熟阶段 [3] - 2024年11月,国家卫健委等部门联合印发指引,明确了4大领域13个细分板块共84个“AI+医疗”应用场景,2025年10月再发实施意见,锚定8大重点方向推进落地 [3] - “AI+医疗”被视为医疗技术数字化升级的必然趋势,本质是优化服务流程、弥补资源短板,是医疗体系的重要补充而非替代 [3] 风险与伦理挑战 - 行业面临的核心风险点集中在数据、算法和安全三大维度,数据方面存在隐私泄露隐患及同质化严重、缺乏小众病数据的问题,算法方面存在由数据偏差导致的诊疗偏见和不可解释的“黑箱”问题,性能稳定性在复杂临床场景中易波动 [7] - 伦理挑战包括:可能侵犯患者知情权与选择权;训练数据源可能导致对罕见病、小众人群的算法偏见,造成医疗服务不公平分配;优质AI产品集中于头部机构可能加剧医疗资源分化,拉大基层与三甲医院差距;过度依赖AI可能弱化医患沟通与人文关怀 [8] - 中邮证券预测,“AI+医疗”解决方案的全球市场规模将从2022年的137亿美元增至2030年的1553亿美元,复合年增长率为35.5%,到2030年中国市场有望达到168.3亿美元,行业存在爆发式增长机会 [6] 监管与规范建议 - 当前监管对AI医疗特有的算法“黑箱”、持续迭代、责任链复杂等问题缺乏精细化、动态化的管控机制,需加强产品上市前测评(尤其是医疗大模型)、建立动态监管机制以及完善隐私保护 [10] - 建议加快补齐监管空白,出台AI医疗责任界定、算法审查等专项规则,搭建跨部门协同监管平台,实现从准入到退出的全链条动态监管,并加强基层AI应用监管 [10] - 具体监管措施建议包括:按产品风险等级分类管理,对高风险产品严格准入并强化全流程监测;建立算法备案与审查机制,明确责任划分规则,搭建风险预警平台;建立监管沙盒机制,允许创新型产品在可控范围内试点 [11] 人才培养与使用机制 - 为避免医生对AI的过度依赖,需建立“医生主导、AI辅助”的使用机制,医院应制定差异化使用规范,要求医生对AI输出结果进行复核,不能直接照搬AI建议 [5] - 在人才培养中,应强化临床思维和疾病认知推理能力,将AI作为夯实专业根基、锤炼思辨能力的助力 [5] - 建议从制度约束、认知提升、技术倒逼等多维度构建“医生主动判断、AI辅助参考”的临床使用机制,并建立AI使用的追责与溯源机制 [5]
“AI+医疗”应用边界引关注 专家建议全链条动态监管
新浪财经·2026-02-02 03:21