Workflow
环球时报研究院邀请多位专家聚焦讨论:人工智能幻觉,怎么破?
环球网资讯·2025-06-13 07:00

AI幻觉的定义与分类 - AI幻觉指大模型生成内容与现实或用户输入不一致的现象,主要由训练设计缺陷、数据不足和架构偏差导致[2] - 42.2%公众反馈AI应用中"内容不准确或含虚假信息"是最突出问题[2] - 事实性幻觉表现为编造虚假事件、违反常识推断[3] - 忠实性幻觉表现为上下文自我矛盾[3] - 跨模态幻觉出现在文生图等多模态应用中[3] AI幻觉的技术原理 - 大模型基于概率内生机制,倾向于选择高频词组合[2] - Transformer架构通过注意力机制建立上下文逻辑,但错误会累积放大[3] - 模型类似"背课文考试的学生",对未知问题靠联想生成答案[3] AI幻觉的双重影响 - 负面:引发信任危机、安全漏洞、信息污染及意识形态风险[6] - 正面:在艺术和科研领域可能产生创造性突破[4][6] - 医疗处方、司法判决等专业领域受严格限制[7] - 自动驾驶决策中的幻觉可能引发交通事故[8] 行业应用风险案例 - 纽约法院案例显示ChatGPT生成6个虚假判例干扰司法[9] - 互联网信息污染可能导致下一代认知偏差[10] - 训练数据被幻觉内容污染会阻碍模型迭代[9] 缓解措施与技术方案 - 采用高质量原生数据和合成数据训练[11] - RAG检索增强结合知识图谱提高输出可靠性[12] - 建立幻觉评估体系与联防联控机制[12] - 开发真实性核验插件实现联网实时验证[12] 监管与治理进展 - 中国率先实施《互联网信息服务深度合成管理规定》[14] - 美国加州和欧盟相关法规将于2026年生效[14] - 建议建立白名单知识库和跨境数据审查机制[12] - 金融医疗等领域需保留人类最终决策权[13]