从辅助工具到名誉“杀手”,人与AI的“战争”

事件概述 - 律师黄贵耕因百度AI在搜索其姓名时,自动生成并关联了“伪造印章”、“威胁法官”、“非法吸收公众存款”等虚假刑事犯罪事实,认为百度构建了关于其本人的“负面信息传播闭环”,并于2025年9月以侵犯名誉权为由起诉百度公司,索赔109万元 [1][3][17] - 该案于2025年11月由北京海淀区人民法院受理,成为一起针对AI主动生成虚假信息的名誉权侵权案件 [20] - 类似事件并非个例,2025年以来,多位受访者表示在各大搜索平台遭遇AI“无差别伤害”,被错误关联负面事件或凭空编造受罚、定罪信息 [4][21] 公司(百度)相关情况 - AI功能缺陷:百度AI在总结全网搜索结果时,频繁出现“张冠李戴”、“移花接木”的错误,例如将匿名处理的“律师黄某”或同姓人士的负面信息错误关联到检索对象身上 [14][15][22] - 技术解释与责任认定:百度方代理律师将AI的错误生成解释为“AI幻觉”,认为错误由技术代码自动生成,具有“不可控、难以避免”的特性,平台对此不具有可预见性,不应为AI犯的错承担责任 [26] - 用户反馈与处理机制:用户反馈错误信息渠道不畅,处理效率低下,有用户2025年9月反馈的错误信息至报道时仍未处理,另有用户在2026年1月初反馈后,错误信息也未得到完全更正或删除 [34][35] - 同业对比:在其他搜索引擎上输入相同关键词,大部分平台的AI功能未关联虚假负面信息,甚至会主动标注澄清,表明AI的“善”“恶”形象由其背后平台控制 [33] 行业影响与挑战 - 诉讼案例增加:除黄贵耕案外,北京云嘉律师事务所律师顾金焰于2025年7月代理了另一起类似的AI侵犯用户名誉权案件,该案于2025年12月在北京互联网法院首次开庭 [23][24] - 技术层面的“低级错误”:资深AI工程师指出,此类问题源于技术设计缺陷,如缺乏深度语义分析以区分不同个体身份,以及缺少多轮语义校验审核和把关机制 [31] - 成本与技术的平衡:实现更精细的“风险信息分级验证”机制意味着更高的算力和成本投入,平台可能出于节省预算、减轻服务器负载的商业考量而未采用 [32] - 法律与监管的模糊地带:司法实践面临“法律适配”与“规则探索”的双重挑战,现有法律框架难以完全适配AI技术,对于AI生成内容属于“信息展示”还是“内容创作”、平台注意义务边界、“通知-删除”规则是否适用等问题尚无定论 [36] 各方观点与解决方案探讨 - 支持技术宽容:有法学教授认为,为保护技术创新,社会需要给予AI试错空间,在公民人格权与企业技术创新冲突且平台过错不明显时,应适当倾斜于技术创新者 [37] - 强调平台责任:法学研究者认为,法律必须对技术应用造成的严重损害提供有效救济,平台应承担更严格的研发注意义务,履行保证人义务,而非仅依赖后端的“通知-删除”机制 [38][39][40] - 提出分级管理方案:建议平台构建精细化治理体系,对可能严重影响公民声誉的敏感信息(如“违法”、“犯罪”),必须使用权威数据库或多重交叉信源验证,确保信息准确 [41] - 司法指引期望:法官希望通过典型案例的裁判指引,推动人工智能技术服务提供者加强风险防控,优化算法设计,促进技术在合法合规轨道上发展 [42]