Workflow
智诊AI系统
icon
搜索文档
“AI医生”误诊险些要人命?真相来了
环球网资讯· 2025-04-12 22:06
AI医疗谣言现象 - 近期网络上出现多起关于"AI医生误诊"的虚假消息,内容涉及重症肺炎误诊、全国首例AI医疗误诊诉讼案等离奇情节,利用情感冲突吸引大量转发[1][2][3] - 典型谣言案例包括:上海某社区医院AI系统将重症肺炎误诊为普通感冒导致患者险丧命[2],以及北京某三甲医院AI系统误诊胸痛患者致心肌梗死死亡并引发诉讼[5][7] - 这些谣言普遍采用"AI替代医生→出现事故→天价赔偿"的固定套路,并伪造官方报道、权威数据和专家言论增加可信度[10] 谣言生成特征 - 部分谣言由AI辅助生成,具备完整新闻要素(时间/地点/人物/事件)和专业医学术语,细节充分但内容完全虚构[9] - 造谣者刻意制造医患矛盾,放大公众对AI医疗的焦虑,通过戏剧性情节推动传播以获取流量[10] - 清华大学专家指出,AI生成内容能在各专业领域使用深度术语,这种"专业性"更易迷惑普通受众[9] AI医疗监管现状 - 国家明确规定AI不得替代医师诊疗或自动生成处方,当前AI仅作为辅助工具应用于84种医疗场景[11] - 法律层面尚未界定AI诊疗责任归属(医师/医院/算法公司),故禁止AI拥有处方权[13] - 2023年11月国家卫健委发布《卫生健康行业人工智能应用场景参考指引》,严格限定AI在医疗服务管理、基层公卫等领域的辅助角色[11] 治理措施 - 国家网信办等多部门联合出台《人工智能生成合成内容标识办法》,要求AI生成内容必须添加显式/隐式标识[17] - 平台被要求承担主体责任,加强虚假信息识别和过滤,尤其保护谣言鉴别能力较弱的受众群体[16] - 法律专家强调,造谣者可能面临行政拘留、罚款等处罚,严重者需承担民事或刑事责任[19]