行业监管与立法趋势 - 当前针对人工智能侵权进行专门立法为时尚早 核心原因包括人工智能侵权的潜在风险总体可控 主要损害隐私、个人信息、知识产权等权利 未直接对个人生命财产安全造成现实重大侵害 以及技术发展日新月异 过早立法可能因滞后性妨碍技术发展 [3][4] - 应秉持“在发展中规范”的思路 以《民法典》《个人信息保护法》为基础 充分解释和用好现有规则 再通过案例积累和司法解释制定来应对侵权问题 [2][4] - 国际上存在两种核心监管模式 欧盟的“强监管模式”注重个人信息和隐私保护 设置多项合规义务 美国的“轻监管重利用”模式则合规义务较轻 主要通过侵权法处理侵害问题 [3] 侵权责任认定原则 - 人工智能侵权应适用“过错责任”原则 而非“无过错责任” 以避免对模型开发者、设计方、服务提供者施加过大风险 从而严重阻碍人工智能发展 [5] - 过错判断应以“违反注意义务”为核心 并遵循场景化原则 结合具体场景权衡风险防控成本与合理义务 [6] - 过错认定需考虑现有技术水平 对于技术无法克服的困境 如生成信息出现“幻觉” 可借鉴发展风险抗辩等规则 综合考量风险程度与防范成本 [6] - 需明确区分人工智能服务提供者与用户的过错 若损害主要由用户输入虚假信息诱导造成 则主要过错在用户 [6] - 建议类推适用《民法典》第1195条的避风港规则 服务提供者收到侵权通知后 未在合理期间采取合理措施的 才承担相应责任 [7] 个人信息与数据利用规范 - 对已公开个人信息的利用 应区分是否造成信息主体重大利益侵害 例如 收集已公开信息用于模型训练并进行匿名化处理 无需逐一取得同意 但将已公开个人信息打包出售则可能构成重大利益侵害 [8] - 对于已公开数据作品的处理 应区分输入与输出两个阶段 输入阶段 获取已公开作品数据用于训练可考虑纳入著作权法合理使用范畴 输出阶段 需确保输出结果多样化、模糊化 避免与他人作品内容雷同 [8] 深度伪造技术规范 - 深度伪造技术易被用于以假乱真、栽赃陷害 严重侵害他人权益 [9] - 建议依据《民法典》第1019条 禁止利用深度伪造技术侵害他人权益 关键在于充分解释该条款以应对相关问题 [2][9] 总体发展理念 - 需秉持“在发展中规范 在规范中发展”的监管理念 坚持审慎、包容、开放的态度 保障人工智能在安全、可靠、可控的前提下有序发展 营造鼓励创新的良好营商环境 [10]
生成式AI被滥用如何治理?学者建议用好现有规则发展中规范
南方都市报·2025-12-18 18:55