Workflow
医学人工智能研究
icon
搜索文档
中山大学最新论文登上Cell头条
生物世界· 2025-12-03 18:00
研究概述 - 中山大学中山眼科中心团队在Cell子刊Cell Reports Medicine上发表了一项随机对照试验研究,评估大语言模型在医学人工智能研究中对医生的有效性[2][4] - 研究旨在探索大语言模型能否帮助医生克服技术障碍,协助其开展医疗人工智能研究[4] 研究背景与设计 - 跨学科研究推动了数字医学等领域的发展,但人工智能在生物医学的广泛应用受限于医生的技术障碍,特别是偏远地区或资源有限的年轻医生团队[6] - 研究招募了64名初级眼科医生,进行为期两周的“自动化白内障识别”项目,采用优效性、开放标签的随机对照试验设计[6] - 干预组32人使用ChatGPT-3.5,对照组32人不使用大语言模型,旨在最小化工程辅助的情况下评估效果[6] 核心研究发现 - 干预组项目总完成率显著高于对照组,达到87.5%,而对照组仅为25.0%[7] - 干预组无辅助完成率也远高于对照组,分别为68.7%和3.1%[7] - 干预组展现出更优的项目规划能力和更短的完成时间[7] - 经过两周洗脱期后,41.2%的成功干预组参与者能够在没有大语言模型支持的情况下独立完成新项目[7] - 大语言模型将医疗AI项目的完成率从25%提升至87%,并使41%的成功干预医生在后续能独立完成新项目[11] 潜在风险与影响 - 调查显示,42.6%的参与者担心会不加理解地复述AI信息,40.4%的参与者担忧AI会助长惰性思维,表明存在潜在的依赖性风险[7] - 大语言模型虽能帮助医生克服技术障碍并促进医疗AI研究民主化,但存在幻觉和依赖风险,其长期风险仍需进一步研究[8][11][12] - 研究提出了与大语言模型有效互动的初步提示指南[11]
中山大学最新Cell子刊:AI能够帮助医生克服技术障碍,但存在依赖风险
生物世界· 2025-11-27 12:11
文章核心观点 - 大语言模型能有效帮助医生克服技术障碍,显著提升其参与医学人工智能研究的项目完成率[3][5][7][9] - 大语言模型的应用使医疗AI研究民主化,但同时也存在AI幻觉和医生产生依赖倾向的潜在风险[3][5][6][7][9] 研究背景与挑战 - 跨学科研究推动了科学领域突破,但在生物医学领域,AI等技术的广泛应用受限于技术障碍[2] - 医生因缺乏多学科专业知识或技能,以及难以获得工程支持,在AI技术的问题导向型研究中参与受阻,偏远地区或资源有限的年轻医生面临的挑战更明显[2] 研究设计与方法 - 研究团队开展了一项随机对照试验,招募64名初级眼科医生进行为期两周的“自动化白内障识别”项目[5] - 干预组32人使用大语言模型ChatGPT-3.5,对照组32人不使用,在最小化工程辅助的情况下进行[5] 研究结果与数据 - 干预组项目总完成率高达87.5%,显著高于对照组的25.0%[5][7] - 干预组无辅助完成率为68.7%,远高于对照组的3.1%[5] - 干预组展现出更优的项目规划能力和更短的完成时间[5] - 经过两周洗脱期后,41.2%的成功干预组参与者能在没有LLM支持的情况下独立完成新项目[5][7] 潜在风险与影响 - 42.6%的参与者担心会不加理解地复述AI信息,40.4%担忧AI会助长惰性思维,表明存在潜在依赖性风险[5] - 大语言模型存在幻觉风险,其长期使用形成的依赖风险需进一步研究评估[6][7][9] - 研究提出了与大语言模型有效互动的初步提示指南[7]