马斯克旗下AI被处临时禁令
21世纪经济报道·2025-10-23 13:50

文章核心观点 - AI大模型生成内容的法律责任认定正成为全球性议题,德国汉堡地方法院对马斯克旗下Grok发出的临时禁令,可能成为欧洲AI内容责任认定的首案,标志着AI公司可能需要为其模型输出的不实信息承担直接责任 [1][3][9] - 针对AI“幻觉”产生的虚假内容,AI平台传统的免责声明效力正受到挑战,不同司法管辖区(如美国与欧洲)的认定标准存在显著差异 [7][8][9] - AI公司在法律上被定义为“内容生成者”还是“内容传播者”,将直接决定其责任义务的大小,业内对此尚未达成共识,相关案件的结果将对AI行业的商业模式和合规框架产生深远影响 [10][11][12] 德国Grok诉讼案 - 诉讼由Campact e.V.协会提起,指控Grok在回答用户提问时,虚假声称该协会资金来自纳税人,而实际上其运营依赖于捐款,汉堡地方法院已发布临时禁令,禁止X.AI继续发布该虚假陈述 [1][3] - 该案引发关注的原因在于,法院直接认定X.AI为虚假信息的发布者并课以直接责任,绕过了复杂的算法归因问题,释放出AI需为自身输出内容负责的信号 [1][5] - 原告方Campact e.V.的经理Astrid Deilmann强调,AI公司不能对虚假信息置之不理,必须确保谎言不被传播,并指出“人工智能也不能凌驾于法律之上” [5][9] 不同司法管辖区的认定差异 - 与美国佐治亚州法院在一起AI诽谤案中的判决形成对比,该法院以“任何理性的人都不会将AI生成内容解读为真实事实”为由,认可了OpenAI的免责声明,驳回了原告的诉求 [8] - 欧洲大陆显示出不同的监管倾向,德国汉堡法院的临时禁令体现了对AI施加更严格约束的态度,平台免责声明可能不再是“免死金牌” [7][9] AI公司的法律角色与责任争议 - 法律专家指出,若AI平台整合多个信息来源后归纳总结出内容,其角色更接近“内容生成者”,应承担更严格的审核义务和直接侵权责任 [11] - 有行业法务持不同观点,认为AI服务提供者不能完全控制内容生成逻辑,其解答用户问题是服务的基本要求,生成的内容通常不代表平台自身观点,因此不能简单等同于“平台主动发布内容” [5][12] - 研究学者认为,大模型肯定是内容生成者,但是否为“内容传播者”存疑,需考虑用户提示在生成中的贡献以及内容在用户间传播的具体情况 [12] 行业影响与用户认知现状 - 生成式AI已广泛应用,但用户AI素养存在断档,上海交通大学的研究显示,近半数受访者经常使用大模型,但约七成受访者对AI生成虚假信息的风险缺乏清晰认知,高感知比例者不足一成 [11] - 国内已有类似的AI内容侵权案件在审理中,最快将于年底宣判,其结果必将对AI幻觉及平台责任认定带来巨大影响 [1][11] - Grok案件可能终结业内“模型犯错,用户负责”的商业模式,促使行业思考如何在技术无法完全避免幻觉的情况下,设计合规模型以最大限度降低侵权责任 [12]