核心观点 - 生成式人工智能在科研领域的应用日益广泛,但引发了包括未声明使用、伪造数据(如“幻觉式引用”)在内的新型学术不端行为,对学术诚信构成新挑战 [1] - 以《柳叶刀》为代表的科技期刊正通过要求作者强制声明、加强编辑核查、制定内部政策与成立专门委员会等方式,试图规范AI使用并坚守“守门人”职责,强调人类对科研成果的最终责任与透明度 [1][5][8] 期刊应对措施与政策 - 强制声明机制:《柳叶刀》系列期刊在投稿页面新增复选框,要求作者声明是否使用生成式AI,若使用则需详细说明模型名称、版本、提示词、使用目的及位置,并将此信息随论文发表 [1] - 处理未声明与不当使用:对于未声明且不当使用AI(如出现大量“幻觉式引用”)的稿件,即使已接收也会拒稿,并可能联系作者所在机构进行教育 [2][3] - 明确使用边界:不支持使用AI替代研究人员的核心工作,如提出科学见解、分析解释数据、得出结论或建议 禁止在同行评审过程中使用AI,以防破坏保密性 允许将AI用于改善语法、语言表达、查阅及总结已有研究等辅助性工作 [5][7] AI使用现状与问题 - 声明率极低:仅有7%的作者在投稿时声明使用了生成式AI,这与超过50%用户表示使用过的调查结果形成巨大差距,表明大量使用未获披露 [2] - “幻觉式引用”问题凸显:编辑发现部分论文中存在无法检索的虚假引用,单篇论文中此类不存在的引用可达10至15个 [2] - 低质量AI投稿:编辑部每天能发现约5篇内容套路、毫无新意、明显由生成式AI撰写的通讯投稿,会直接拒收 [4] - 拒稿比例:因不当使用AI而拒稿的情况目前较少,过去一个月仅发生几次,但被视为一个新兴现象 [4] 机构建设与未来方向 - 成立专门工作组:《柳叶刀》编辑部已成立研究诚信工作组,负责跟进最新政策、制定内部AI使用规范并监控处理疑难案例 [8] - 关注外部指南:积极关注并采纳如国际出版伦理委员会等机构更新的外部指南,将其融入内部决策流程 [8] - 筹备高级委员会:计划于明年二月启动科研诚信委员会,生成式AI对科研诚信的影响将是其核心关注议题之一 [8] 使用原则与潜在风险 - 工具定位:应将AI视为辅助工具,而非具备真正洞察力与见解的“智能”体,人类需进行监督并承担最终责任 [7][9] - 潜在风险:生成式AI存在产生幻觉、偏见、种族主义内容及导致模型崩溃的风险 其产出的内容可能表面合理但缺乏实际洞察力与新颖性 过度依赖AI可能导致下一代研究人员面临“去技能化”风险 [9]
AI辅助写论文,科技期刊怎么看——专访《柳叶刀》副主编萨宾娜·克莱纳特
科技日报·2025-12-12 16:16