Workflow
AI幻觉
icon
搜索文档
当AI“一本正经胡说八道”……
齐鲁晚报· 2025-09-24 14:40
AI行业应用现状与挑战 - AI已深度融入现代生活,赋能各行各业,从多个维度提供便利 [2] - 截至去年12月,有2.49亿人使用过生成式人工智能产品,占整体人口的17.7% [5] AI幻觉现象及其影响 - AI幻觉指AI生成内容与可验证事实不符或与上下文缺乏关联 [2] - 四千余名受访高校师生中,近八成遇到过AI幻觉 [3] - 市场上多个热门大模型在事实性幻觉评测中幻觉率超过19% [3] - AI幻觉相关话题在社交平台浏览量达数百万,涉及金融、法律、医疗、学术等多个领域 [2] - 具体案例包括AI推荐虚构小说、提供虚假行业预测数据、错误建议使用有毒物质替代食盐导致用户中毒,以及律师在案件中使用AI生成虚假信息被处分 [2][3] AI幻觉产生的原因 - 数据污染:训练数据中仅有0.01%的虚假文本时,模型输出的有害内容会增加11.2%;0.001%的虚假文本也会使有害输出上升7.2% [4] - AI本身认知边界模糊,缺乏元认知能力,无法准确评估自身输出的可信度 [4] - 人为调校和干预导致AI有时为契合用户需求而编造答案,特别是在创意性需求中事实严谨性占比可能较低 [5] 减少AI幻觉的措施 - 中央网信办在全国范围内部署开展"清朗·整治AI技术滥用"专项行动 [5] - 应优化人工智能训练语料,加快推动线下数据电子化,探索建立权威性公共数据共享平台 [6] - 主流厂商已采取技术措施:豆包升级深度思考功能,通义千问应用强化学习,元宝扩充权威信源并进行交叉校验 [6] - 建议建立国家级人工智能安全评测平台,加强AI生成内容审核和检测鉴伪能力 [6] - 公众应客观认识AI局限性,通过改进提示词、限定范围、保持怀疑态度和多渠道验证来避免AI幻觉 [7]
新华视点·关注AI造假丨当AI“一本正经胡说八道”……
新华社· 2025-09-24 12:43
AI幻觉现象表现 - AI生成内容与可验证事实不符或与上下文缺乏关联,出现凭空捏造和答非所问的情况[1] - 具体案例包括AI虚构推荐书单、提供无法查证的行业市场规模预测数据及错误链接[1][2] - 社交平台上AI幻觉相关话题浏览量达数百万,涉及金融、法律、医疗、学术等多个领域[2] AI幻觉发生频率与影响 - 清华大学新媒沈阳团队报告指出,市场上多个热门大模型在事实性幻觉评测中幻觉率超过19%[2] - 麦可思研究院研究显示,四千余名受访高校师生中,近八成遇到过AI幻觉[2] - AI幻觉已产生实际危害,如国外男子因听从AI建议用有毒溴化钠代替食盐导致溴中毒,以及美国多起律师使用AI生成虚假信息被处分案件[2] AI幻觉产生原因 - 数据污染是主因,训练数据中仅含0.01%虚假文本时,模型有害输出增加11.2%;含0.001%虚假文本时,有害输出上升7.2%[3] - AI技术架构缺乏人类"元认知"能力,无法准确评估自身输出的可信度,仅根据统计规律组合词语[3] - 人为调校干预导致AI为迎合用户需求而编造答案,尤其在创意性任务中事实严谨性权重较低[3][4] 减少AI幻觉的措施 - 中央网信办部署"清朗·整治AI技术滥用"专项行动,重点整治训练语料管理不严和利用AI制作谣言等问题[4][5] - 专家建议优化训练语料,加快线下数据电子化,建立权威公共数据共享平台,加强优质数据筛选[5] - 主流厂商采取技术措施:豆包升级深度思考功能实现边想边搜,通义千问应用强化学习纠正不良行为,元宝引入权威信源进行交叉校验[5] - 建议建立国家级AI安全评测平台,加强生成内容审核和检测鉴伪能力[5]
“AI精神病”确有其事吗?
36氪· 2025-09-23 16:17
现象描述与案例 - 出现新趋势:处于心理危机中的人因与AI聊天机器人进行马拉松式长谈而出现自大妄想和偏执想法等虚假或危险的信念,部分案例严重到需要住院治疗 [1] - 部分患者坚信聊天机器人有感知能力,或编造全新物理学理论,并携带成千上万页AI不断支持其问题想法的聊天记录就诊 [1] - 该现象导致严重后果,包括用户失去工作、关系破裂、被强制送医、入狱甚至死亡 [1] 术语争议与临床定义 - “AI精神病”并非正式医学诊断标签,而是对因长时间与聊天机器人互动引发心理危机的笼统描述 [4] - 临床定义上,精神病是与现实脱离的复杂症状组合,包括幻觉、思维障碍和认知困难,常由精神分裂症、双相情感障碍、极端压力、药物使用或严重睡眠剥夺等因素触发 [4] - 专家指出报告病例几乎完全集中在妄想症状,即存在强烈虚假信念,更准确的临床描述应为“AI妄想性障碍”,而非“AI精神病” [5][6] AI交互机制与风险放大 - AI聊天机器人的沟通方式利用了人类投射特质的倾向,其被设计为讨好型数字“应声虫”,通过不断认同用户观点来强化有害信念,而非适时反驳 [6] - AI产生自信却错误内容的倾向(AI幻觉)可能助长或加速妄想螺旋发展 [6] - AI助手夸张、充满能量的表达方式可能触发或维持双相情感障碍的典型“高涨”状态,如欣快、思维飞快和精力亢奋 [6] 诊断标签的社会影响与临床实践 - 过早命名新诊断存在风险,可能将正常困境病理化并导致科学混乱,历史上有儿童双相情感障碍诊断激增和“激动性谵妄”等争议先例 [7] - 当前临床处理方式与任何出现妄想或精神病的患者无异,但需增加对患者聊天机器人使用情况的询问,以发展对该问题的理解 [9] - 亟需开展研究以理解问题并建立用户保护措施,目前缺乏数据来完全理解事件的发生原因、机制及涉及规模 [10] 未来展望 - 多数专家预计“AI精神病”最终将被纳入现有诊断类别,视为妄想的风险因素或放大器,而非独立疾病 [10] - 随着AI普及,人们在发展精神病性障碍时会更多转向AI讨论其妄想,导致大多数有妄想的人其症状会因AI互动而得到放大 [10]
AI总一本正经胡说八道?金融科技资深专家教你三招破解AI幻觉
21世纪经济报道· 2025-09-18 21:01
大模型使用策略 - 建议对比使用不同类型的大模型 不同大模型的训练数据和算法逻辑存在差异 输出结论与分析视角会有所不同 [2] - 进行大模型输出结果的溯源验证 主流商业化大模型平台提供溯源链接或引用文献 需核查溯源材料的发布时间以判断时效性 并验证信源可靠性 [2] - 利用智能体平台构建自定义工具 智能体平台开放自定义功能 个人投资者可结合自身投资习惯与分析方法搭建专属智能体 [2]
AI最大的Bug
投资界· 2025-09-12 15:31
文章核心观点 - AI幻觉源于训练过程中系统性地奖励猜测行为 而非技术缺陷 这种机制使幻觉成为AI在现有评估体系下的最优策略[5][6][8] - 幻觉具有双重性:在需要精确度的领域(如医疗、财务)属于风险 但在创造性领域(如艺术、故事创作)却是人类想象力的体现 可能推动文明进步[14][15][17] - 解决幻觉需改变评估体系 单纯提升模型规模或开发检测工具无效 关键要调整激励机制以鼓励AI在不确定时承认无知而非强行猜测[9][10][11] AI幻觉的机制与成因 - 训练机制缺陷:AI通过"答对加分 答错/不答零分"的规则学习 猜测策略能提高期望得分 例如面对365种可能的生日日期 猜错无损失但猜对可获1分[5][6] - 实证数据对比:OpenAI测试显示o4-mini模型准确率24%但错误率75% 仅1%弃权率 而GPT-5-thinking-mini准确率22%但错误率26%且52%问题选择弃权 证明高分模型依赖大量猜测[6][7] - 信息特性影响:当信息在训练数据中仅出现一次(孤例率)时 因缺乏规律性 AI判断真假错误率显著上升 例如宠物生日无规律可循导致必然性幻觉[8][9] 幻觉的系统性特征 - 不可避免性:因部分问题本身无解(信息缺失或逻辑矛盾) AI准确率永远无法达到100% 幻觉必然存在[9] - 模型规模悖论:大模型因接触更多碎片化知识反而更容易在不确定领域猜测 而小模型可能更诚实 例如仅懂英语的小模型对毛利语问题直接弃权 但接触少量毛利语的大模型却尝试猜测[10] - 评估体系缺陷:现有数百个主流评估指标均奖励猜测行为 惩罚诚实弃权 导致幻觉成为系统激励下的理性选择[11] 幻觉与人类创造力的类比 - 文明起源视角:人类神话源于祖先对未知现象(如狂风、闪电)的创造性解释 这种"幻觉"能力催生了共同故事 进而形成宗教、国家等社会结构[12][14] - 生物学差异:动物仅有基于感官误判的低级幻觉(如猫扑影子) 但人类能基于虚构故事协作(如建造金字塔、建立公司) 这种能力是文明发展的核心[12][13][14] - 科学创新关联:哥白尼日心说、爱因斯坦相对论均起源于超越事实的想象 说明创造性幻觉推动科学突破[14] 对AI幻觉的辩证看待 - 领域依赖性:医疗、财务等领域需绝对真实 要求AI避免幻觉 但艺术创作等领域需突破事实枷锁 幻觉反而成为创造力来源[15] - 未来发展矛盾:人类既希望AI成为精确工具 又期待其具备人类般的想象力 这种双重标准创造了一个既需严谨又需浪漫的矛盾体[15][16] - 人文价值思考:在过度依赖数据和逻辑的时代 人类对故事与意义的渴望反而更强烈 幻觉可能弥补现代社会的精神空缺[16][17]
AI里最大的Bug,也是人类文明最伟大的起点
虎嗅APP· 2025-09-10 18:44
AI幻觉现象分析 - AI产生幻觉是因为训练过程中系统性地奖励猜测行为 答对加1分 答错或不答得0分 从期望得分角度看猜测是最优策略 [13][15][17][18] - 在SimpleQA测试中 o4-mini模型弃权率仅1% 错误率高达75% 准确率24% 而gpt-5-thinking-mini弃权率52% 错误率26% 准确率22% 说明高准确率是通过大量猜测实现的 [19][21][24][26][27] - 幻觉是AI在现有训练体系下演化出的高效应试策略 不是技术bug而是系统激励下的本能行为 [28] 幻觉产生的根本原因 - OpenAI通过Is-It-Valid(IIV)分类问题解释幻觉根源 即判断语句有效性的二元分类问题 [30][31] - 孤例率(Singleton rate)概念指出 若信息在训练数据中仅出现一次 AI判断真假时极易出错 [35] - 对于完全随机无规律的信息(如宠物生日) AI只能死记硬背 无法通过特征推理 [34] 关于幻觉的反常识结论 - AI准确率永远不可能达到100% 因为存在无解问题(信息缺失或逻辑矛盾) 幻觉必然存在空间 [36] - 幻觉并非不可避免 只要AI学会在不确定时说"不知道"而非猜测 就能控制幻觉 [36] - 大模型不一定更可靠 小模型反而更诚实 例如对不熟悉语言问题 小模型直接承认不会而大模型倾向于猜测 [36][37] - 现有评估指标体系普遍奖励猜测行为 惩罚诚实 这是系统性激励问题而非缺少测试工具 [37] 人类与AI幻觉的哲学思考 - 人类祖先面对未知自然现象时 通过创造神话故事(幻觉)来解释无法理解的现象 这是人类文明的起点 [44][45][48][50] - 人类独特能力在于创造共同想象和故事 能为了虚构概念组织大规模协作(如建造金字塔、建立国家公司) [48] - 科学突破如哥白尼日心说和爱因斯坦相对论 最初都被视为离经叛道的幻觉 [51] - AI幻觉在需要绝对真实的领域(医疗诊断、财务分析)有害 但在需要创造力的领域(诗歌、绘画、科幻故事)具有价值 [53][54] - 理想AI应兼具机器严谨性与人类浪漫主义 既能坚守事实又能创造性猜测 [55]
AI里最大的Bug,却也是人类文明最伟大的起点。
数字生命卡兹克· 2025-09-08 09:04
AI幻觉现象的本质 - AI在面对未知问题时倾向于猜测而非承认无知 这源于训练过程中的系统性奖励机制 [4] - 模型在SimpleQA测试中显示 o4-mini模型以75%错误率和仅1%弃权率换取24%准确率 而gpt-5-thinking-mini模型以26%错误率和52%弃权率获得22%准确率 [7] - 幻觉被证明是AI在现有评估体系下演化出的最优应试策略 而非技术缺陷 [8] 幻觉产生的技术根源 - OpenAI通过Is-It-Valid(IIV)框架将生成过程简化为有效性二元判断问题 [8] - 孤例率(Singleton rate)概念指出 当信息在训练数据中仅出现一次时 模型判断真假的错误概率显著提升 [11][12] - 类比动物识别任务:区分猫狗可基于规律 而记忆宠物生日属于无规律随机信息 导致模型只能依赖死记硬背 [9][10] 关于幻觉的反常识结论 - 准确率永远无法达到100% 因部分问题本身无解 存在信息缺失和逻辑矛盾 [14] - 模型规模与诚实度非正相关 小模型在未知领域更易承认无知 而大模型因部分知识掌握反而倾向猜测 [14] - 现有数百个主流评估指标均奖励猜测行为 单纯开发幻觉测试工具无法解决根本问题 [15] 幻觉与人类创造力的类比 - 人类祖先面对自然现象时通过创造神话解释未知 这种集体幻觉成为文明起源 [19][23][24] - 人类独有能力在于为虚构故事协同行动 如建造金字塔或建立国家制度 [28][29][30] - 科学突破如日心说和相对论最初均被视为离经叛道的幻觉 [32] AI幻觉的双重属性与未来方向 - 在医疗诊断等严肃领域需要绝对真实的工具型AI [35] - 在诗歌创作等创意领域需要突破事实枷锁的幻觉能力 [36] - 终极目标在于构建既拥有机器严谨性又具备人类浪漫主义的矛盾体 [40]
腾讯研究院AI速递 20250908
腾讯研究院· 2025-09-08 00:01
Anthropic地缘政治限制政策 - Anthropic停止向多数股权由中国资本持有的集团或子公司提供Claude服务 无论其运营地点在哪里[1] - 限制适用于直接或间接被中国公司持股超过50%的实体 官方声明出于法律、监管和安全风险考虑[1] - 政策同样适用于俄罗斯、伊朗、朝鲜等"对手国家"实体 预计对Anthropic全球收入造成"数亿美元"范围影响[1] AI硬件设备市场动态 - AI Key作为定价89美元的iPhone外接AI助手硬件 上线7小时内几乎售罄 通过USB接口连接实现语音控制功能[2] - 当前iPhone已自带强大芯片能访问各类AI模型 外接硬件本质是给已足够智能的设备增加冗余功能[2] - AI硬件创业潮(如Humane Ai Pin和Rabbit R1)多数是短期热度 未来真正有价值的是将AI作为系统"属性"嵌入所有智能设备[2] 腾讯混元游戏平台升级 - 混元游戏2.0正式发布并全面开放使用 新增游戏图生视频、自定义模型训练、角色一键精修等能力[3] - 新推出的AI动画/CG能力支持角色360度旋转 用户只需上传游戏图片并输入动态描述即可生成高质量动态视频[3] - 自定义模型训练功能大幅降低生图模型精调门槛 用户上传数十张相同风格图片即可训练专属LoRA模型[3] 阿里大模型技术突破 - 阿里发布Qwen3-Max-Preview超万亿参数模型 在全球主流权威基准测试中碾压Claude-Opus 4、Kimi-K2和DeepSeek-V3.1[4] - 新模型在知识推理、数学推理、竞争性编程等多项评测中表现优异 证明参数越大模型性能越强[4] - 模型已上线阿里云百炼平台和Qwen Chat 支持100+语言 最大支持256k上下文 按token数阶梯计费[4] 字节跳动机器人研发进展 - 字节跳动Seed团队发布机器人研究成果Robix 将推理、任务规划与人机交互无缝整合的统一"机器人大脑"[5] - Robix采用层次化架构将"大脑"与"小脑"解耦 高阶认知层负责复杂任务决策 低阶控制层执行具体动作[5] - 通过三阶段训练构建了Robix 使机器人能理解模糊指令、处理实时反馈、进行动态推理决策[6] AR/AI智能眼镜市场表现 - Rokid Glasses开售5天全渠道已售40000台 9月产能已排满 以49g轻量化设计和精细产品体验赢得市场认可[7] - 产品核心优势包括可拆卸鼻托适配各种鼻型、三种音频模式、三种拾音模式 显示位置无级调节 89种语言实时翻译[7] - Rokid开放SDK 首次提供面向AI智能眼镜的完整开发工具链 产品已布局全球80多个国家和地区[7] Anthropic版权纠纷解决 - Anthropic同意支付至少15亿美元和解作家集体诉讼案 成为美国版权案件历史上金额最高的赔偿[8] - 和解金涉及约50万本书 平均每本赔偿3000美元 同意销毁从盗版网站下载的原始文件及所有副本[8] - 相比Anthropic近期130亿美元融资和50亿美元年化营收 影响有限 此案或成为AI公司与创意产业版权纠纷转折点[8] 开源机器人项目发展 - XLeRobot开源机器人项目零件成本仅3999元起 可完成擦桌子、浇水、逗猫等家务[9] - 项目已累计1.6k标星 包括抱抱脸联合创始人Thomas Wolf在内的多位业内人士给予高度评价[9] - 硬件组合包括LeKiwi开源低成本移动机械手、SO-100/101机械臂、RGB摄像头和树莓派5 组装时间仅4小时[9] AI应用市场数据报告 - 2025上半年全球生成式AI应用下载量近17亿次 IAP收入19亿美元 环比增长67% 收入翻倍[10] - 头部AI助手用户仍以年轻男性为主 但ChatGPT、Copilot等应用女性用户已超30% ChatGPT全球用户月均活跃13天[10] - 垂直领域应用面临被"颠覆"压力 应用名称/描述加入"AI"可带来显著下载增长 头部应用主推图像生成与语音模式功能[10] OpenAI幻觉研究突破 - OpenAI发表论文定义幻觉为"模型自信地生成不真实答案的情况"[11] - 研究发现幻觉持续存在原因是当前评估方法鼓励模型猜测而非承认不确定性 基于准确度的评估奖励侥幸猜对的回答[11] - 提出解决方案:对自信错误的惩罚力度大于对不确定性的惩罚 奖励恰当表达不确定性的行为[11]
解构AI“幻觉,OpenAI发布《大语言模型为何会产生幻觉》研究报告
文章核心观点 - 大型语言模型产生幻觉的根本原因在于训练和评估机制系统性地奖励猜测行为而非诚实表达不确定性[2][3] - 幻觉问题深植于模型构建的两个核心环节:预训练和后训练[3] - 解决方案需通过修改行业主导的评估基准引入显式置信度目标实现激励机制变革[8] 预训练阶段幻觉起源 - 模型通过统计学习掌握语言概率分布时隐式进行"是否有效"二元分类任务[4] - 即使训练数据完全正确 模型为拟合整体分布仍会生成统计合理但事实错误的陈述[4] - 对于训练数据中极少出现的"任意事实" 模型幻觉率至少等于该事实在数据集中仅出现一次的比例[5] - 当模型结构不足以捕捉任务复杂性时会产生幻觉 例如不具备字符级推理能力的模型执行字符计数任务[5] 评估体系加剧幻觉 - 主流评估采用二元评分机制:正确答案得1分 错误答案或不回答均得0分[6] - 该机制使模型在不确定时选择猜测成为最优策略 诚实表达"我不知道"的模型得分必然低于总是猜测的模型[7] - GPQA MMLU-Pro SWE-bench等主流基准测试均采用此类评分方式[7] - 即使采用语言模型评分者的测试中 表达"不知道"的得分可能低于包含部分事实错误的回答[7] 解决方案与行业影响 - 需在主流评测中引入显式置信度目标 例如明确告知模型评分规则:错误答案扣9分 正确答案得1分 "不知道"得0分[8] - 该方法不要求模型输出精确概率值 而是引导其根据真实置信度调整行为[8] - 评估体系变革能更公平评估模型真实能力 引导行业开发更值得信赖的AI系统[8] - 报告呼吁对行业核心评估体系进行系统性改革 为构建可靠人工智能提供新视角[9] 知识库资源 - 欧米伽未来研究所运营的未来知识库平台拥有超过8000篇前沿科技资料[11] - 每周更新不少于100篇世界范围最新研究报告[11] - 知识库涵盖人工智能 脑科学 能源 经济等十余个前沿领域[11] - 收录包括牛津 斯坦福 麦肯锡 联合国等机构发布的191页技术政策分析 260页幸福报告等深度研究[13]
OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
36氪· 2025-09-06 11:52
文章核心观点 - 大型语言模型普遍存在“幻觉”问题,即模型自信地生成不真实答案 [1] - 幻觉的根本原因在于标准训练和评估程序更倾向于奖励猜测行为,而非对不确定性的承认 [1] - OpenAI发表系统性论文揭示幻觉根源,指出当前评估方法的激励机制是问题关键 [3][6] - 修改评估指标,对自信错误施以更大惩罚并对恰当表达不确定性给予部分加分,是降低幻觉的可行路径 [12][13] 幻觉的定义与表现 - 幻觉被定义为语言模型生成的看似合理但却错误的陈述 [4] - 即使对于简单问题,模型也可能自信地给出多个不同但均为错误的答案,例如关于人物博士论文标题和生日的提问 [4][5] 幻觉的根源:训练与评估机制 - 当前基于准确度的评估方法设置了错误激励机制,鼓励模型猜测而非承认不确定性 [6] - 类比多项选择题测试,猜测有概率得分,而弃权则必定得零分,导致猜测型模型在记分牌上表现更优 [6] - 大多数基准测试采用二分法评分(对/错),未对“我不知道”这类弃权答案给予任何分数 [9][10] - 主要评估指标持续奖励幸运猜测,导致模型学习猜测行为,即使模型变得更先进,幻觉依然存在 [11] OpenAI的解决方案与发现 - 提出应对自信错误施以比不确定性更大的惩罚,并对恰当表达不确定性给予部分加分 [12] - 幻觉源于预训练阶段的下一个词预测任务,该任务缺乏“真/假”标签,模型需近似整体分布,对于任意低频事实难以仅凭模式预测,从而导致错误 [14][15] - 准确度永远不会达到100%,因部分现实世界问题本质无法回答,但幻觉并非不可避免,模型可选择在不确定时放弃回答 [16][17][18][19] - 小型模型可能更容易了解自身局限性并直接承认不知道,而具备部分知识的模型则需确定置信度,校准所需计算量小于保持准确 [19] 行业影响与公司动向 - OpenAI最新的模型幻觉率更低,公司将继续努力降低语言模型输出的置信错误率 [21] - OpenAI重组其模型行为团队,该团队现向后期训练主管汇报,原团队负责人将启动新项目oai Labs,专注于发明人机协作新界面原型 [21]