真人“数字人”傻傻分不清
AI数字人现状与挑战 - 七成受访者难以区分真人视频与AI数字人视频,主要原因为缺乏有效提示 [1] - 社交平台存在大量未标识的AI生成账号,300个抽样账号中仅15%主动标明AI身份 [5] - AI生成技术已能高度模拟真人特征,包括自然皮肤纹理、手指比例及动态行为 [4] 技术滥用与监管漏洞 - 不法分子利用AI数字人实施诈骗,案例包括虚假保健品销售及伪造名人形象贷款 [7] - 部分从业者通过预置镜像参数规避平台标注要求,成本低于千元即可绕过审核 [6] - 平台审核存在双重困境:技术能力不足与商业利益驱动导致标识执行不力 [8] 政策与行业规范进展 - 国家网信办等四部门发布《人工智能生成合成内容标识办法》,9月起强制实施显著标识 [8] - 现行法规要求AI生成内容需全流程溯源,但落地面临基层执法资源不足的挑战 [8] - 专家建议细化标识技术标准(如最小字体高度、对比度)并加大违规处罚力度 [9] 用户影响与社会风险 - 中老年群体易受未标识AI内容误导,典型案例包括虚假养生建议及名人合成视频 [1][7] - 社交平台AI账号通过真人化互动(如评论区回复)增强欺骗性,加剧辨识难度 [3][5] - 未成年人及老年人因鉴别能力有限,成为AI虚假内容主要受害人群 [7][9]