人工智能幻觉
搜索文档
ICLR 2026还会好吗?300篇投稿50篇含幻觉,引用example.com竟也能过审
机器之心· 2025-12-08 18:11
ICLR 2026审稿中发现的AI生成内容与引用幻觉问题 - 第三方统计发现ICLR 2026有21%的审稿意见完全由AI生成[1] - OpenReview评审系统发生“开盒”事件,波及超过10000篇投稿[1] - AI检测平台GPTZero扫描了300篇投稿论文,发现其中50篇至少包含一处明显的引用幻觉内容[1] - 部分存在幻觉内容的投稿已经过3-5名领域专家的同行评审,但绝大多数未能被识别[5] - 部分存在幻觉的投稿平均评分高达8/10(满分10分),几乎确保被录用[6] 幻觉引用的具体表现形式与案例 - 引用链接直接使用默认示例链接“example.com”[3] - 作者名单仅为一串大写字母,而非真实姓名[4] - 引用论文真实存在,但所有作者信息错误[6] - 引用论文前几位作者信息正确,但后续作者为虚构或不在论文中[6] - 引用完全不存在的论文[8] - 具体案例包括论文《TamperTok》和《MixtureVitae》,其引用均存在作者信息完全错误或部分虚构的问题[6][7] GPTZero的幻觉检测工具与方法论 - 该工具自2024年1月推出,已测试过包括政治报告、公司报告在内的数百份文件[13] - 工具使用内部训练的AI智能体标记无法在网上找到的引用,标记后需人工审查确认[18] - 将“幻觉”定义为:使用生成式AI产生的、对真实来源标题、作者或元数据进行改写或拼凑的引用[18] - 工具假阴性率(漏报率)极低,成功发现有缺陷引用的概率可达99%[21] - 工具假阳性率(误报率)相对较高,因为它会标记任何无法在线验证的引用[22] - 该工具为同行评审提供两大关键益处:大幅减少验证文档来源所需的时间和人力,并使过程更公平透明[25][26][30] 学术出版行业面临的系统性压力 - 2016年至2024年间,每年发表的科学文章数量激增了48%[11] - 撤稿和其他学术丑闻层出不穷[11] - 科学会议和期刊难以找到合格的同行评审员,评审员因时间需求增加而不堪重负[11] - 生成式AI、论文工厂和发表压力共同引发了投稿狂潮,压垮了学术期刊与会议[10][11] - ICLR等顶级会议投稿和评审中AI撰写迹象普遍,包括行文冗长、滥用列举项、伪造数据和引用幻觉[11] 事件影响与行业警示 - GPTZero仅扫描了2万篇投稿中的300篇,预计未来几天将发现数百篇包含幻觉内容的论文[10] - 根据ICLR编辑政策,即使只有一处明确幻觉内容也构成伦理违规,可能导致论文被拒稿[10] - 事件暴露了在AI生成内容效率与人工验证成本之间存在不对称对抗,正在击穿同行评审防线[28] - 该事件被视为一个警告,表明在拥抱AI效率红利时,必须建立与之匹配的数字安检机制[28] - 否则,学术会议可能从思想碰撞的场所,演变为AI生成内容的自我狂欢[28]
李飞飞的答案:大模型之后,Agent 向何处去?
创业邦· 2025-09-05 19:12
论文核心观点 - 李飞飞领衔的80页综述论文《Agent AI: Surveying the Horizons of Multimodal Interaction》为AI智能体领域建立统一框架 提出从感知到行动的认知闭环架构 并前瞻性预测行业技术演进路径 [5][6][9] - 论文定义Agent AI五大核心模块(环境感知、认知、行动、学习、记忆) 构成动态迭代的智能体体系 被视为实现AGI的系统性蓝图 [12][18] - 大模型(LLM/VLM)是驱动Agent的核心引擎 但需通过环境交互解决幻觉与偏见问题 需建立伦理安全机制 [5][20][21] - 应用潜力覆盖游戏、机器人和医疗三大领域 包括游戏NPC动态交互、机器人自主物理操作、医疗智能问诊与健康管理 [5][24][30] 技术架构 - 环境与感知模块:智能体主动从物理/虚拟世界获取多模态信息(视觉、听觉、文本) 并具备任务规划与技能观察能力 [13] - 认知模块:由LLM/VLM驱动 负责复杂推理、策略制定及上下文理解 是智能体的核心处理中枢 [14] - 行动模块:将决策转化为具体操作指令 包括机器人控制命令或API调用 通过控制器改变环境状态 [15] - 学习模块:支持预训练、零样本/少样本学习、强化学习及模仿学习 通过环境反馈实现持续优化 [16] - 记忆模块:存储知识、逻辑与推理结果 形成长期记忆体系 支持经验复用与举一反三 [17][18] 大模型驱动机制 - LLM/VLM提供零样本规划能力 例如将"热午餐"指令分解为具体子任务序列 显著降低规则编写成本 [20] - 环境交互是关键锚点:通过真实/模拟环境反馈校准模型输出 减少幻觉(如机器人操作错误)并对齐现实世界 [21] - 需解决数据偏见问题:通过多元化训练数据、偏见检测机制及道德指导方针确保包容性 [21] - 隐私与安全挑战:需建立数据使用监管框架 通过提示工程或人类监督层确保敏感领域(如医疗)安全可控 [22] 行业应用场景 - 游戏领域:变革传统NPC脚本模式 实现动态对话、行为调整及社会关系构建 支持自然语言交互与AI辅助内容生成 [25][26] - 机器人领域:实现自然语言指令解析(如"收拾桌子") 结合GPT-4V理解人类演示视频 并通过模拟训练与多模态融合提升物理操作鲁棒性 [28] - 医疗领域:智能问诊机器人提升初级诊疗效率 连接实时医学数据库进行事实核查 支持慢性病监控与个性化健康管理 [30][32] 行业发展与挑战 - 2025年被普遍视为Agent元年 谷歌、OpenAI和微软等巨头技术布局均遵循论文能力栈框架 [5][9] - 当前需突破多模态深度融合、跨领域通用化及标准化评测(如CuisineWorld、VideoAnalytica基准)等核心挑战 [33]
环球时报研究院邀请多位专家聚焦讨论:人工智能幻觉,怎么破?
环球网资讯· 2025-06-13 07:00
AI幻觉的定义与分类 - AI幻觉指大模型生成内容与现实或用户输入不一致的现象,主要由训练设计缺陷、数据不足和架构偏差导致[2] - 42.2%公众反馈AI应用中"内容不准确或含虚假信息"是最突出问题[2] - 事实性幻觉表现为编造虚假事件、违反常识推断[3] - 忠实性幻觉表现为上下文自我矛盾[3] - 跨模态幻觉出现在文生图等多模态应用中[3] AI幻觉的技术原理 - 大模型基于概率内生机制,倾向于选择高频词组合[2] - Transformer架构通过注意力机制建立上下文逻辑,但错误会累积放大[3] - 模型类似"背课文考试的学生",对未知问题靠联想生成答案[3] AI幻觉的双重影响 - 负面:引发信任危机、安全漏洞、信息污染及意识形态风险[6] - 正面:在艺术和科研领域可能产生创造性突破[4][6] - 医疗处方、司法判决等专业领域受严格限制[7] - 自动驾驶决策中的幻觉可能引发交通事故[8] 行业应用风险案例 - 纽约法院案例显示ChatGPT生成6个虚假判例干扰司法[9] - 互联网信息污染可能导致下一代认知偏差[10] - 训练数据被幻觉内容污染会阻碍模型迭代[9] 缓解措施与技术方案 - 采用高质量原生数据和合成数据训练[11] - RAG检索增强结合知识图谱提高输出可靠性[12] - 建立幻觉评估体系与联防联控机制[12] - 开发真实性核验插件实现联网实时验证[12] 监管与治理进展 - 中国率先实施《互联网信息服务深度合成管理规定》[14] - 美国加州和欧盟相关法规将于2026年生效[14] - 建议建立白名单知识库和跨境数据审查机制[12] - 金融医疗等领域需保留人类最终决策权[13]