记者调查:AI换脸与声音克隆技术已形成完整灰色产业链,如何治理?
央广网·2025-11-25 19:28

AI换脸技术滥用现状 - 多名演员及名人被AI换脸技术冒用形象进行直播带货,商家通过录屏抠图或盗用过往直播素材,经深度合成后重塑形象与语音嵌入直播间[1] - 有演员团队一天内集中举报50个假冒账号,部分账号被下架后立即更换形式重新出现,造假者常在凌晨三四点发布内容以规避监管[1][4] - 普通消费者亦成为受害者,例如有商家因购物纠纷使用AI换脸技术冒用消费者妻子形象发布不雅视频进行报复[2] AI换脸技术应用的黑灰产链条 - 在网络平台可轻易搜索到AI换脸教程及服务,相关软件或服务定价较低,已形成灰色产业链[4] - 黑灰产利用技术突破金融安全防线,有案例显示犯罪分子利用AI换脸软件生成动态视频,通过左摇头、右摇头、张嘴等指令动作突破金融平台的人脸识别系统[3] - 犯罪分子曾利用非法获取的195万余条公民个人信息实施犯罪,成功突破23名被害人的金融平台支付账户,并冒用其中1人的银行卡消费15996元[2][3] 平台治理与监管挑战 - AI侵权识别被视为行业性难题,黑灰产通过凌晨发布、频繁更换账号等手段规避平台监管[4] - 国家网信办等多部门已出台《人工智能生成合成内容标识办法》,要求AI生成的肖像视频需标注,否则面临最高10万元罚款,但部分博主将标注隐藏在视频角落或使用极小字体[4] - 检察机关就案件暴露的金融支付平台技术风险发出法律风险提示函,相关平台已完成整改[3] 法律规制与司法实践 - 司法部门对AI换脸犯罪实施全链条打击,有被告人因侵犯公民个人信息罪、信用卡诈骗罪数罪并罚,被判处有期徒刑4年6个月,并承担公益损害赔偿金[3] - 法律专家指出,现有刑法罪名体系能对技术滥用形成威慑,核心挑战在于侦查中的证据固定及各环节“主观明知”的准确认定[4] - 平台被要求压实主体责任,对拒不履行网络安全管理的平台追究刑事责任[4]