德国AI幻觉第一案 AI需要为“说”出的每句话负责吗?
21世纪经济报道·2025-10-23 11:35

案件核心与行业信号 - 德国汉堡地方法院对马斯克旗下X.AI公司的Grok聊天机器人发出临时禁令,禁止其发布关于Campact e.V.协会资金来源的不实陈述,此案被视为欧洲AI内容责任认定的潜在首案[1] - 案件核心争议在于AI公司是否需要为模型生成的虚假内容承担诽谤、造谣等侵权责任,业内对此观点不一[1] - 该临时禁令被解读为一个强烈信号,即AI公司需要为大模型生成的内容承担直接责任,绕过了复杂的算法归因问题[3][12] 具体案件背景 - 诉讼起因是Grok在回答用户提问时,虚假声称Campact e.V.协会的资金来自纳税人,而该协会澄清其运营依赖于捐款[2] - 原告Campact e.V.协会经理Astrid Deilmann强调,AI公司不能对虚假信息置之不理,必须确保谎言不被传播[3][8] 不同司法辖区的责任认定差异 - 与美国佐治亚州法院在一起类似案件中认可OpenAI的免责声明并驳回原告诉求不同,德国法院的初步行动显示出对AI更严格的监管态度[5][6] - 美国法院的判决逻辑是,任何理性的人都不会将AI生成内容视为真实事实,尤其是平台已提供不准确输出警告[6] - 法律专家指出,无论免责声明多么详实,若AI输出构成法律禁止的侵权行为,服务商可能需承担责任[7] AI公司的法律角色争议 - 关于AI公司应被视为内容生成者还是传播者存在争议,这将直接影响其责任义务的大小[11][12] - 有观点认为,若内容是AI整合多个来源后归纳总结的,则平台更可能是内容生成者,需承担更严格的审核义务和直接侵权责任[11] - 另一种观点认为,不能简单将AI回答用户提问理解为“平台主动发布内容”,AI服务提供者并不能完全控制内容生成逻辑,且生成内容通常不代表其自身观点[11] - 有研究学者指出,大模型肯定是内容生成者,但是否为传播者存疑,需考虑用户提示在生成中的贡献以及内容在用户间传播的差异性[12] 行业影响与用户认知 - 生成式AI已广泛应用,但用户AI素养存在断档,上海交通大学的研究显示,约70%的受访者对大模型生成虚假信息的风险缺乏清晰认知[9][10] - 国内已有类似的AI内容侵权案件在审理中,最快将于年底宣判,预计将对AI幻觉的平台责任认定产生巨大影响[1][11]