人工智能发展现状 - 人工智能成为新一轮科技革命和产业变革的重要驱动力量 深刻改变生产方式、生活方式和社会治理模式 [1] - 人工智能大模型发展需要海量数据作为训练素材 其中蕴含个人信息权益侵害风险 [1] 已公开个人信息处理规范 - 人工智能大模型训练数据多来源于已公开数据 涉及大量已公开个人信息 [1] - 《个人信息保护法》第27条规定处理已公开个人信息需符合"合理范围"要求 若对个人权益有重大影响应取得同意 [1] - 生成式人工智能采用海量来源不明信息 难以适用知情同意规则 法律上弱化保护侧重利用 [1] 敏感个人信息保护机制 - 人工智能技术增强数据分析能力 对海量碎片化信息集中处理威胁敏感个人信息安全 [2] - 《个人信息保护法》对敏感个人信息采取严格保护措施 训练阶段需进行匿名化处理 [2] - ChatGPT曾出现技术漏洞导致用户信息泄露 需引入动态匿名化视角实施流程规制 [2] 运营阶段风险管控 - 生成式人工智能自动生成能力对个人隐私保护形成挑战 输出端需防止敏感信息泄露 [3] - 人工智能可能产出恶意虚假内容 若学习过程存在偏差可能构成诽谤或侮辱 [3] - 泄露的敏感信息可能被用于欺诈行为 导致信息主体被歧视和污名化 [3] 人格标识保护升级 - 人工智能技术可广泛收集个人声音等人格标识 进行深度伪造制作音视频 [3][4] - 韩国2024年深度伪造性剥削事件涉及未成年人 斯嘉丽·约翰逊指控OpenAI非法使用其声音 [4] - 任何人的声音都可能被侵害 需严格禁止通过深度伪造侵害人格权益 [4] 虚拟数字人权益界定 - 虚拟数字人行业进入高速成长期 商业化路径得到验证 量产成为可能 [5] - "中之人"扮演型虚拟数字人通过动作捕捉技术全面收集真人数据 定制虚拟形象 [5] - 侵权判定采取可识别性标准 分析训练过程与真人素材使用方式 [5] 新型人格权益保护 - 虚拟数字人成为真人"虚拟分身" 投射的人格权益可能超出肖像权范围 [6] - 使用真实个人信息训练AI陪伴者 构成对姓名权、肖像权及一般人格权的侵害 [6] - 虚拟形象是姓名、肖像、性格特征等综合而成的整体形象 需作为新型人格权益保护 [6]
当AI大模型遇见人格权:海量数据训练下的侵权风险