文章核心观点 - 《人工智能生成合成内容标识办法》施行后,AI生成内容进入“持证上岗”的规范化时代,行业治理取得初步成效,但执行层面仍面临黑灰产利用“反标识”技术规避监管的严峻挑战,需从技术、权责、协同治理等多维度构建纵深防线 [3][5][7][10] 政策实施与行业成效 - 自2025年9月1日《人工智能生成合成内容标识办法》施行以来,AI生成内容需添加显式标识,并在文件元数据中添加隐式标识以提供技术保障 [3][5] - 截至2025年6月,我国生成式人工智能用户规模达5.15亿人,较2024年12月增长2.66亿人,用户规模半年翻番 [5] - 抖音、今日头条、快手等内容平台及喜马拉雅等音频平台均已构建AI标识实施机制,如“AI生成内容声明”选项、“片头提示+文字标注”等形式 [5] - 政策落地后,用户对未知来源内容的“质疑意识”提升了近40%,且隐式标识使一起跨境AI虚假新闻的追责周期从平均72小时缩短至12小时 [6] - 标识政策的实施破解了AI内容“难识别、难追溯”的行业痛点,推动了从平台合规到用户认知的积极态势 [6] “反标识”黑灰产与执行挑战 - AI伪造技术已实现高拟真段位升级,并滋生出分工明确、收益可观的完整黑灰产链条 [7] - 电商及社交平台上存在“明码标价”的规避标识服务,价格从几十元到上千元不等,有工具声称能无痕去除98%的AI生成痕迹 [7] - 部分违规者利用不同平台标识规则与技术差异进行跨平台“零成本”监管规避,例如裁掉AI标识后的图片在另一平台未被检测出 [8] - “反标识”技术已升级为“多元技术路线与商业模式并行”的完整产业链,催生元数据“深度清零”、格式多轮转码等新乱象 [9] - 处罚标准模糊(《办法》第十三条仅规定“依据现有法规处理”)及部分平台缺乏隐式标识核验工具,制约了治理成效 [9] 专家建议与治理方向 - 需完善“不可篡改、全程可溯”的技术硬屏障,推进AI标识技术标准化,细化不同平台及内容类型的技术规范,并强化隐式标识的抗篡改技术升级 [10] - 应进一步细化《办法》中的主体责任,明确生成合成内容服务提供者、传播平台、分发平台等不同主体的具体义务 [10] - 建议强化对恶意删除、伪造标识及提供规避工具等行为的处罚力度,探索建立违规主体“黑名单”制度 [11] - 需构建“政府、公众、平台”治理闭环,完善举报与监督机制,鼓励公众参与,建立跨平台投诉举报联动机制及违规账号信息共享 [11] - 需持续强化公众AI素养科普,普及标识识别方法、常见造假手段及维权路径,引导公众养成“看标识、辨真伪”的习惯 [11]
“去水印”绕过监管 “反标识”生意红火 AI生成内容“持证上岗”为何难落地
新华网·2026-01-13 09:49