“AI生成”不可突破人格权边界(金台锐评)
人民日报·2026-01-22 11:00

文章核心观点 - 人工智能技术如AI语音包、数字人和数字复活等应用,对人格权益保护提出了新挑战,需要更新法律边界与侵权认定模式以筑牢数字时代人格权保护的法治屏障[1] - 司法实践已先行探索,认定AI生成声音、制作数字虚拟人形象、AI换脸等行为可构成对声音权益、肖像权及个人信息权益的侵害[1] - 法律需在既有框架下明确新型侵权判断标准,并注重多元利益衡量,在人格权保护与技术创新、社会公共利益间寻求审慎平衡[2] - 强化保护需多方协同,通过法律划定红线、平台落实标识与审核、研发者融入伦理、公众提升意识,以规范技术应用向上向善[3] 行业现状与技术应用 - AI技术可模仿、复制甚至“创造”个人的声音、形象及人格片段,相关产品如模仿公众人物声音的“AI语音包”在网络热销,“数字人”用于直播,“数字复活”技术再现已故者音容[1] - 侵犯人格权的行为已从物理世界延伸至数字空间,传统权利边界与侵权认定模式亟待更新[1] 法律与司法实践进展 - 中国民法典人格权编为人格尊严保护提供了法律制度支撑,在防止侮辱、诽谤、肖像滥用等方面已发挥重要作用[1] - 司法裁判认定自然人声音权益可及于AI生成声音,利用AI软件制作他人“数字虚拟人”形象或恶搞、丑化他人肖像构成肖像权侵权,对含他人肖像视频进行“AI换脸”构成对个人信息权益的侵害[1] - 司法实践传递清晰信号:技术应用若实质性构成人格权侵害,就应受到法律规制和惩戒[2] - 需要在既有法律框架下,从具体案例中总结提炼裁判规则,不断明确新型侵权行为的判断标准[2] 利益衡量与规范路径 - 强化人格权保护需注重多元利益衡量,促进人格权与技术创新的良性互动[2] - 以“数字复活”技术为例,其交织着对逝者的尊重、亲属情感、研究探索、商业价值及公众历史记忆等多重诉求[2] - 法治需合理区分场景、清晰界定规则:对用于诽谤等恶意侵害行为必须划定红线并严惩;对出于纪念、特定艺术表达、历史研究与公共利益等目的的使用,可在遵循知情同意、最小必要、尊重公序良俗等原则下探索“合理使用”规范路径[2] - 涉及公众人物时,应重点考量目的是否正当、是否超出必要限度等因素,在人格权保护与公众知情、舆论监督等社会公共利益间寻求审慎平衡[2] 多方协同治理与行业责任 - 法律需划定不容逾越的红线,并通过明确侵权责任与救济途径为受害者提供维权依据[3] - 平台应成为前沿“哨所”,严格落实深度合成内容的显著标识义务,让“AI生成”一目了然,并主动建立高效监测与审核机制,对高风险内容进行预警与拦截[3] - 技术研发者需将伦理考量融入技术设计与研发全流程,建立内部伦理审查机制,在产品源头嵌入尊重人格尊严的价值准则[3] - 公众应不断提升数字权利意识,学会辨识技术风险、保护个人权益,并在参与传播时坚守底线,避免成为侵权行为的“二传手”[3] 发展意义与展望 - 筑牢数字时代人格权保护法治屏障,是对人格尊严的坚定捍卫,也是互联网持续健康发展的题中之义[3] - 在法治轨道上更好地明确边界、平衡利益、凝聚共识,才能让技术在尊重人、保护人的前提下向上向善发展,不断释放创新活力[3]