文章核心观点 - 文章通过全国首例AI“幻觉”侵权案切入,深入分析了生成式AI产生虚假信息(即“AI幻觉”)的技术原理、法律定责边界以及个人用户如何降低使用风险,核心在于阐明AI生成内容不准确在当前技术下具有不可避免性,但服务提供者需履行法定义务,而用户需保持“数字清醒” [1][6][10] AI“幻觉”现象的技术成因 - 生成式AI的工作原理本质是概率预测而非理解,通过训练数据学习词汇关联并逐字生成最可能的答案,这导致其可能基于错误关联生成虚构内容,例如将“倒拔垂杨柳”与“武松”错误关联 [1][2] - AI的训练数据存在局限性,无法包含全部信息且可能包含错误,研究显示训练数据中仅0.01%的错误文本会导致错误输出率上升11.2%,0.001%的污染也会使错误内容增加7.2% [2] - AI具有“讨好型人格”,在不确定答案时倾向于编造看似合理的答案以满足用户,而非承认未知,例如会依据用户对某款App的正面或负面评价立刻改变其回答立场 [3][4][5] AI服务提供者的法律义务与责任认定 - 法律要求AI服务提供者对法律禁止的有害违法信息负有严格审查义务 [7] - 服务提供者需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的功能局限告知、显著的提示方式以及在重大利益场景下的正面即时警示 [7] - 服务提供者应尽到功能可靠性的基本注意义务,采取如检索增强生成技术等同行业通行技术措施以提高生成内容准确性 [7] - 在首例侵权案中,法院认定被告已在应用欢迎页、用户协议及交互界面显著位置进行功能局限提醒,并采用了检索增强生成等技术,因此已尽到合理注意义务且主观无过错,故驳回原告赔偿请求 [6][8] 个人用户降低AI幻觉的实用方法 - 优化提问方式,提问应具体、清晰并提供充足上下文,例如限定时间范围、要求注明数据来源并提示AI对不确定处进行标注,可减少AI自由发挥 [8] - 采用分批输出策略,限制AI单次生成内容的数量,例如分段撰写长文并逐段确认,以降低幻觉概率并提升内容质量 [8] - 进行交叉验证,通过向多个AI大模型提出同一问题并比对答案来判断可靠性,部分应用已集成多种模型便于对比 [9][10] - 用户需牢记AI仅为辅助工具,不能代替决策,必须对其局限性保持清醒认知,不盲目相信生成内容 [10]
当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?
经济观察网·2026-01-29 14:07