热点追踪丨国内首例AI“幻觉”案,给我们提了个醒
新华社·2026-02-06 14:57

案件判决与责任界定 - 国内首例因AI“幻觉”引发的侵权案件一审判决驳回原告要求AI平台研发公司赔偿10万元的诉讼请求[2] - 法院判决的核心在于厘清AI生成内容的法律责任 生成式AI的输出属于概率生成 并非法律意义上的意思表示 不能简单将其回答视为具有法律效力的承诺[2] - 判决以过错责任为主轴 未将AI“幻觉”简单等同于平台侵权 重点审查服务提供者是否履行了提示说明、纠错、标识与安全评估等义务[3] - 判决传递出“鼓励负责任创新、反对无限责任”的信号 责任从“结果担保”转向“风险控制” 旨在建立可控、可追责的治理结构而非“句句负责”[3] AI“幻觉”的本质与风险 - AI“幻觉”指大模型生成内容与真实信息不一致的现象 本质源于训练设计缺陷、数据不足及架构偏差等技术局限[2] - AI“幻觉”已成为AI使用过程中的重要潜在风险 国内外已出现多起相关诉讼案例[4] - 风险等级与实际应用场景强相关 目前问题主要集中在文字内容 但随着大模型普及至生成软件、算法、程序乃至决策信号 其影响力与日俱增[6] - 若错误结果被不加识别地用于司法判决、医疗诊断、自动驾驶等高风险场景 可能造成严重后果[6] AI“幻觉”的治理路径 - 治理需辩证看待 不应归罪于技术本身或因噎废食 应通过更多使用和训练促使技术走向成熟[7] - 法治治理的关键是将“技术不可根治”难题转化为“规则可验证、责任可追溯”[8] - 建议加快建立强制标识与可追溯标准 运用显性及隐性标识、元数据留痕与跨平台识别等技术手段降低误认与扩散风险[8] - 建议建立分类分级监管 设立注意义务分层标准 对违法有害信息“严格审查” 对一般错误信息以“显著提示+纠错机制”为核心 形成可操作的“注意义务清单”[8] - 针对教育、医疗、金融、司法等高风险场景 平台及有关各方应制定更严的事实核验、人工复核与禁用边界[8]