当AI成为名誉“杀手”

公司层面:百度AI生成内容引发的名誉权纠纷 - 百度AI在生成针对律师黄贵耕的搜索结果时,错误地将其与“威胁法官”、“伪造印章”、“非法吸收公众存款”等刑事犯罪事实关联,并生成“律师黄贵耕有没有犯罪”等负面信息[1][2] - 黄贵耕认为百度AI构建了关于他的“负面信息传播闭环”,虚假信息被传播给其案件委托人及家属,带来巨大困扰与损失,并于2025年9月以侵犯名誉权为由起诉百度公司[2][3] - 黄贵耕发现AI将新闻报道中匿名处理的“律师黄某”、最高检案例中的“黄某平”以及一名黄姓女律师的处罚信息,全部错误地“张冠李戴”至其名下[9] - 2025年11月,北京海淀区人民法院受理了黄贵耕诉百度公司的人格权纠纷案,黄贵耕索赔各项损失109万元[9][11] - 百度方代理律师在另一起类似案件中,将AI生成错误信息解释为“AI幻觉”,认为错误由技术代码自动生成,“不可控、难以避免”,并辩称平台对错误不具有可预见性[14] - 百度AI业务线工作人员承认,自2025年初推出AI搜索功能后,收到一定数量的用户反馈和投诉,包括AI生成错误内容及不当关联信息的情况[19] - 有用户向百度反馈AI生成的“组织卖淫罪”错误信息后,百度解释为“AI抓取有误,后续将加强对生成结果的监管”,但截至发稿错误信息仍未完全更正或删除[18] 行业层面:AI生成内容侵权现象的普遍性与技术争议 - 2025年以来,多位受访者在各大搜索平台遭遇AI“攻击”,AI针对用户生成负面信息,“言之凿凿”地对其判刑、定罪,或“挑唆”关联其他负面事件[3] - 此类“无差别伤害”案例频发:冀承祥被AI错误关联“组织卖淫罪”及五年六个月有期徒刑;一名企业职员被AI称“涉嫌严重违纪违法”;全国人大代表朱征夫被AI错误关联其子吸毒经历[12] - 北京云嘉律师事务所律师代理的另一起案件中,AI生成当事人“被判刑10年3个月”的内容,并标注“综合全网54篇真实经验”,实则为同姓人士信息的错误关联[13] - 微软资深工程师指出,此类AI“攻击”属于“低级错误”,源于缺乏深度语义分析、身份区分以及多轮校验审核机制[17] - 该工程师表示,技术层面可实现“风险信息分级验证”,但更精细的校验流程意味着更高的算力和成本投入,平台可能出于节省预算、减轻服务器负载的商业考量而未采用[17] - 行业专家指出,部分平台的AI功能已能主动标注匿名人士与检索对象非同一人,表明AI的“善”“恶”形象仍由其背后平台控制[18] - 用户普遍反映,遭遇AI侵权后,反馈申诉途径不畅,投诉后需等待多天才可能使内容下架,处理效率低下[18][19] 法律与监管层面:AI侵权责任认定的困境与探索 - 北京互联网法院法官指出,人工智能服务提供者在技术特征、数据处理和内容展示方面与传统网络服务存在显著差异,使“通知-删除”规则能否直接适用成为争议焦点[20] - 司法实践面临“法律适配”与“规则探索”双重挑战:现有法律框架难以完全适配AI技术快速迭代,且可供参考的裁判案例数量不多[20] - 有法学教授认为,为保护技术创新,社会需给予AI试错空间,当公民人格权与企业技术创新冲突且平台过错不明显时,应适当倾斜于技术创新者[21] - 另有法学专家反对上述观点,认为法律不应简单要求公众“容忍错误”,当技术应用对公民名誉权造成现实且严重损害时,必须提供有效救济[21][22] - 专家建议升级平台治理规则,平台应履行保证人义务,构建精细化治理体系,对“违法”“犯罪”等敏感信息必须使用权威数据库或多重交叉信源验证[22] - 法官希望通过典型案例的裁判指引,推动AI技术服务提供者加强风险防控,优化算法设计,推动技术在合法合规轨道上发展[22] - 截至发稿,文中提及的相关诉讼案件均尚未宣判[15][23]