AI幻觉问题的本质与现状 - 大模型处于缺乏对自身知识边界准确判断能力的状态,本质上是一个基于概率生成文本而非逻辑推理的"黑箱"系统 [1][2][3] - AI幻觉主要表现为事实性幻觉和逻辑性幻觉两种类型,事实性幻觉是编造不存在的事实,逻辑性幻觉表现为前后矛盾、逻辑混乱 [2] - 哥伦比亚大学数字新闻研究中心的专项测试发现,主流AI搜索工具在新闻引用方面的平均错误率达到60% [2] AI幻觉的产生根源 - 产生根源包括训练数据的不足或偏差、算法架构的局限性以及训练目标更倾向于生成"流畅"而非"准确"的内容 [2] - 随着模型规模扩大,某些类型的幻觉问题不仅没有改善,反而呈现加剧趋势 [2][3] - 当前大模型的注意力机制在处理复杂语境时存在局限性 [2] AI幻觉的多领域风险 - 在法律领域造成实际影响,例如美国法院案例中律师提交了ChatGPT生成的6个虚假判例 [4] - 在金融咨询领域可能给出错误投资建议,如误读财报数据或虚构企业信息 [5] - 向实体设备领域渗透可能威胁人身安全,如自动驾驶产生"感知幻觉"或护理机器人错误用药 [5] 综合治理体系与技术方案 - 技术创新是根本途径,检索增强生成技术通过将大模型与权威知识库实时对接来提升准确性 [6] - 提出"以模制模"构建专业知识库,采用多模型交叉验证、搜索矫正等技术手段识别纠正幻觉 [6] - 需要从技术创新、制度监管等多个维度构建综合治理体系 [1][6] 监管与用户应对措施 - 制度监管需要建立多层次治理体系,研究AI生成内容"数字水印+风险提示"双重标识机制 [6] - 用户需要建立对AI能力的理性认知,培养多渠道验证信息的习惯,保持必要的怀疑态度 [7] - 法律界建议完善相关规定,明确利用AI造谣的法律责任,加大对违法行为的惩处力度 [6]
AI幻觉频现 风险挑战几何
新华网·2025-08-22 09:58