文章核心观点 - 关于AI在医疗领域的应用存在显著分歧 一方担忧AI过度依赖会阻碍年轻医生专业判断力的培养 另一方则认为AI能提升效率并直接服务患者 但当前AI在医疗领域的实践主要集中于辅助角色而非取代医生 其应用需警惕“自动化偏差”和误诊风险[1][2][4][6][14][16] 行业动态与市场前景 - AI医疗被视为潜力巨大的市场 吸引国内外科技公司积极布局[7] - OpenAI推出ChatGPT Health 整合Apple健康数据等提供分析和建议 但强调不替代专业诊疗 全球已有超过2.3亿用户使用ChatGPT获取健康建议[7] - Anthropic公司拓展Claude在医疗领域的能力 推出Claude For Healthcare 旨在作为连接器帮助医疗工作者提取信息 并为患者总结病史、解释检查结果以提升医患沟通效率[8][9] - Grok及其支持者马斯克的观点更为激进 认为AI在诊断准确率上超越人类 并展示了其分析医学影像和报告的能力[10][13] 主要争议与不同立场 - 反对直接接入病历系统的观点:以临床专家张文宏为代表 认为年轻医生需通过专业训练才能判断AI输出的对错 跳过积累直接依赖AI诊断将导致其无法建立必要的病例知识库[2][4][16] - 支持AI直接服务患者的观点:以百川智能创始人王小川为代表 认为医生因利益考虑可能阻碍AI应用 AI应致力于服务患者 提高效率并减少误诊[6] - 双方立场均被指受自身角色影响(“屁股决定脑袋”)[6] 应用风险与历史教训 - 历史上有类似教训 如放射科引入计算机辅助检测(CAD)系统后出现的“自动化偏差” 当系统出错时 医生的检测敏感度会下降 经验不足者受影响更甚[14] - 研究表明 AI与医生共同诊断时准确率表现最佳[14] - 生成式AI存在“极度自信地误诊”风险 可能以极具说服力的方式提供错误建议 这对缺乏专业背景的普通用户尤其危险[16][17] 当前应用场景与界限 - 当前AI在医疗中的应用主要集中在症状分析、检查报告解读和简单用药指导等辅助领域[18] - 需要明确区分“保健”与“治病” AI在提供日常保健建议(如饮食、运动)方面作用明显且风险较低 但在复杂疾病的诊疗上作用有限[17] - AI的价值在于为患者争取时间、缓解症状、提供基础用药指导 以应对就医不便的现实情况 而非替代专业医疗[18] - 用户应培养自身判断力 避免完全交出健康决策权[19]
2.3 亿人在用 ChatGPT「看病」,张文宏为什么反对年轻医生用AI
36氪·2026-01-16 16:39