AI辅助写论文,科技期刊怎么看
科技日报·2025-12-12 09:31

文章核心观点 - 生成式人工智能在科研领域的应用日益广泛,但引发了包括伪造数据、代写论文和“思想抄袭”在内的新型学术不端行为,对学术诚信构成全新挑战 [1] - 科技期刊作为“守门人”,正通过要求作者声明AI使用情况、核查“幻觉式引用”以及制定内部政策等方式进行应对,核心原则是确保透明度并由人类研究者承担最终责任 [1][8] 科技期刊的应对措施与政策 - 《柳叶刀》系列期刊要求作者在投稿时通过复选框声明是否使用了生成式AI,若使用则需详细说明模型名称、版本、提示词、使用目的及位置,并将此信息与论文一同发表 [1] - 期刊不允许在同行评审过程中使用生成式AI,以防破坏保密性,也不支持用AI替代研究人员提出科学见解、分析解释数据或得出科学结论 [5] - 期刊内部成立了研究诚信工作组,负责紧跟最新政策、制定内部AI使用规范,并监控处理相关案例,同时关注外部指南(如国际出版伦理委员会的更新)以指导决策 [8] - 期刊正在筹备成立科研诚信委员会,计划于明年二月启动,生成式AI对科研诚信的影响将是其关注重点之一 [8] AI使用现状与披露问题 - 根据《柳叶刀》的统计,只有7%的作者在投稿时声明使用了生成式AI,这与一些调查显示的超过50%的使用率存在巨大差距,表明许多作者未准确披露 [2] - 编辑发现存在未声明的AI生成内容,主要表现为“幻觉式引用”,即论文中引用了无法检索到、不存在的参考文献,个别论文中此类虚假引用多达10至15个 [2] - 对于明显不当使用AI且未声明的论文,期刊会采取拒稿处理,但过去一个月因此拒稿的情况仅发生几次,目前仍属新现象 [3][4] - 期刊每天会收到约5篇明显由生成式AI撰写的、内容套路且无实质科学发现的通讯投稿,这类稿件会被直接拒收 [4] 生成式AI的允许与禁止用途 - 允许的用途:支持作者使用生成式AI改善语法和语言表达以提高可读性,以及用于查阅和总结已有的研究成果 [7] - 禁止的用途:禁止在同行评审过程中使用;禁止用AI替代研究人员进行核心科研工作(如提出见解、分析数据、得出结论);在创建图形或插图时,AI仅可作为头脑风暴和提出概念的工具 [5] 使用原则与潜在风险 - 应将生成式AI视为辅助工具,而非具备真正洞察力或智能的主体,人类需进行监督并承担最终责任 [7][9] - 使用生成式AI存在诸多风险,包括产生“幻觉”内容、存在偏见与种族主义、导致模型崩溃,这些都可能损害公众对科学的信任 [9] - 当前AI生成的内容往往表面合理但缺乏真正的洞察力、新颖性和实际意义,并可能使下一代研究人员面临“去技能化”的风险 [9]