引进AI标识、大模型等,该如何治理违规AI广告?
中国新闻网·2025-10-30 14:34

AI广告违规风险现状 - AI技术被用于生成逼真但虚假的消费场景 活跃在短视频和电商平台 内容涉嫌违背公序良俗 侵权抄袭 虚假宣传 [1] - 截至2025年6月 中国生成式人工智能用户规模达5.15亿人 较2024年12月增长2.66亿人 庞大的用户数量对AI内容治理提出更高要求 [2] AI内容标识与监管执行情况 - 《人工智能生成合成内容标识办法》于2025年9月1日起正式实施 规定AI生成内容应有显式标识和隐式标识 [2] - 在2025年9月1日之前的存量宣传内容中 疑似AI生成但未打标识的内容仍然可能出现 [2] - 平台多依靠自带的AI水印或作者主动声明进行识别 对于非本平台生成的内容识别难度增加 [2] - 例如快手平台会在AI生成内容中添加“AI生成”显示标识及嵌入文件元数据中的隐式标识 并对疑似AI内容进行显著提示 [3] AI广告治理的技术与平台措施 - 传统人工审核方式难以为继 治理必须依靠技术本身 例如在短视频社交平台应用大模型技术 [3] - 有平台表示在AI标识方面 90%素材可在10分钟内完成审核 对比传统审核效率提升75% [3] - 大模型能通过推理判断快速提供精细化拒审理由 告知违规内容出现的具体时间点或画面 [3] - 针对违规行为设置了从预警整改 限制新开 账户封停到主体清退的梯度化处置体系 2025年第三季度已前置拦截涉AI违规素材84万余个 [3] AI治理的协同框架与源头把控 - AI治理需要实现跨领域协同 包括监管持续加码 平台强化责任以及网民切身参与 [3] - 需要组建由监管 平台 伦理委员会构成的“共治联盟”以形成治理合力 应对AI换脸宣传 深度合成侵权等新型风险 [3] - 专门用于AI训练的优质语料依然稀缺 需从源头上确保AI语料的真实性 合规性及导向正确性 [4]