“换脸变声”诈骗、设备偷窥偷听,如何提升防范意识保护个人隐私?
人民日报·2025-08-25 09:58
AI技术带来的隐私泄露风险 - AI换脸和变声技术被用于伪造身份冒充亲友同事领导实施违法犯罪活动[1] - 深度伪造视频音频可轻易制造幻象导致眼见未必为实的情况[1] - 智能设备如摄像头和音箱可能成为隐私泄露的后门[2] 识别AI伪造的技术特征 - AI生成视频在模拟复杂面部遮挡和光影变化时容易出现卡顿模糊或扭曲现象[1] - AI生成语音缺乏自然呼吸停顿和情感起伏带有机械感和异常背景杂音[1] - 伪造视频中人物动作和表情可能显得异常特别是在涉及交易借钱等敏感要求时[1] 智能设备安全防护措施 - 购买电子设备时应优先选择有良好安全口碑的大品牌产品[2] - 不使用智能摄像头时采用物理隔绝方式如直接遮盖或拔掉电源[2] - 设备首次联网后立即修改默认用户名密码为高强度复杂密码并定期检查APP控制权限[2] 验证与应急处理机制 - 对资金转账或敏感信息要求必须通过其他可靠途径进行二次确认[1] - 验证方式包括拨打对方常用电话号码或通过共同认识的第三人进行侧面核实[1] - 遇到疑似信息泄露或诈骗时应保留截图录音交易记录等证据并及时报警[2] 法律责任框架 - 通过AI换脸新技术实施诈骗依照刑法第二百六十六条规定追究刑事责任[2] - 操控摄像头等设备偷窥隐私可能构成非法侵入计算机信息系统罪[2] - 非法获取计算机信息系统数据或非法控制计算机信息系统同样构成犯罪[2]