案件核心判决与观点 - 杭州互联网法院对国内首例生成式人工智能模型幻觉侵权案作出一审判决,驳回原告梁某的诉讼请求,判决现已生效[2][3] - 法院明确AI的“承诺”不构成平台的意思表示,AI不具备民事主体资格,不能被视为平台的“代理人”或“传声筒”[4][5] - 法院认定生成式人工智能服务适用过错责任原则,而非无过错的产品责任,AI生成不准确信息本身不构成侵权,需考察平台是否存在过错[5] 案件事实与争议焦点 - 2025年6月,用户梁某使用某AI应用查询高校报考信息,AI提供了不准确信息,并在用户指出错误后回应“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉”[2] - 梁某认为AI生成不准确信息构成误导,增加了其信息核实与维权成本,要求运营者赔偿9999元[2][3] - 被告平台辩称对话内容由模型生成,不构成意思表示,其已充分履行注意义务且用户无实际损失[3] 平台注意义务的司法界定 - 对于法律明确禁止生成的有毒、有害、违法信息,服务提供者负严格结果性审查义务,一旦生成即构成违法[6] - 对于一般性不准确信息,法律不要求“零错误”,而是方式性义务,要求采取合理措施提高内容准确性与可靠性[6] - 平台须履行显著提示说明义务,在欢迎页、用户协议及交互界面显著提示AI内容的局限性,并对医疗、法律、金融等专业问题进行正面警示[6] - 平台负有功能可靠性的基本注意义务,需采用同行业通行技术措施提升准确性,对高风险领域负有更高义务[7] - 本案中,法院认定被告已完成大模型备案与安全评估,并履行了提示说明义务,原告未能证明遭受实际损害或存在相当因果关系,故平台不存在过错[7] 司法治理原则与公众提示 - 法院指出对生成式人工智能的治理应坚持发展与安全并重、促进创新与权益保护相结合的原则[8] - 适用过错责任原则旨在通过弹性规则引导服务提供者持续改进技术、完善风险防控,而非放任风险[9] - 法院提醒公众应对AI生成内容保持必要警觉与理性认知,当前大模型本质上是“文本辅助生成器”和“信息查询工具”,不足以充当可靠的“知识权威”或“决策者”[9]
AI“胡说八道”要担责吗?法院判了:平台无责但须显著警示
南方都市报·2026-01-20 11:43