ICML 2026征稿与评审机制变化 - 文章核心观点:ICML 2026在征稿中引入了由论文作者决定是否允许在评审过程中使用大语言模型的新机制,这是应对AI工具在学术评审中日益普及的一种折中方案,但该规定的实际执行可能面临困难 [1][3][9][15] 具体政策内容 - ICML 2026为作者提供了两种评审政策选择:政策A为保守型,严格禁止在论文评审中使用任何大语言模型;政策B为宽松型,允许在特定限制下使用大模型进行评审 [4] - 在允许使用大模型评审的政策B下,允许的行为包括:使用大语言模型辅助理解论文内容及相关工作、对评审意见进行语言润色、将投稿论文提交给符合隐私合规要求的大语言模型 [7] - 在允许使用大模型评审的政策B下,明确禁止的行为包括:向大语言模型询问论文的优点或缺点、要求大模型总结或建议评审应关注的关键点、要求大模型提供评审意见的结构或提纲、要求大模型撰写完整的评审意见 [7] - 政策B中提到的隐私合规大语言模型,是指不会使用日志数据进行训练、且对数据保留期限作出限制的模型工具 [8] 政策背景与现状 - 引入该选择机制的原因是过去评审是否使用大模型更多取决于评审人或处于默认接受的灰色状态,而ICML此次将选择权明确交给了作者 [9] - 这一变化发生在论文投稿量持续攀升、评审负担越来越重的现实背景下 [9] - 第三方机构对ICLR 2026的审稿意见统计显示,AI参与审稿已相当普遍:在75800篇论文的审稿意见中,完全由AI生成的占21%,重度由AI编辑的占4%,中度由AI编辑的占9%,轻度由AI编辑的占22%,完全由人类撰写的仅占43% [11] - 有观点认为AI审稿已经达到泛滥的程度,这并非ICML 2026的政策B能够完全限制的 [13] 政策执行与影响 - 关于大模型使用的规定执行起来可能很困难,难以保证审稿人完全遵从限制,例如审稿人使用大模型时很可能第一句话就是违反规定的“给出这篇论文的优缺点” [10][14] - 该套规则或许更像是一种明确态度和方向的约定,而非一套可以严格执行的机制 [15] - 尽管存在执行挑战,但在普遍担心大模型引发信任危机的情况下,ICML为作者提供了可以“一刀切”拒绝大模型审稿的选项,被视为当下一个不错的选择 [16]
评审用不用AI,作者说了算?ICML 2026全新评审政策出炉
机器之心·2026-01-19 16:54