Workflow
AI内容治理
icon
搜索文档
当谣言搭上“AI”的东风
36氪· 2025-06-12 17:09
AI标识制度的技术潜力与治理挑战 - AI标识制度展现出积极的技术潜力,可作为内容治理链条的重要前端支点,但仍存在技术短板需与现有治理体系协同[1] - 2024年国内AI风险舆情案例中超过1/5与AI造谣有关,2025年涉AI谣言如"西藏定日县地震"等频繁引发舆论关注[1][2] - AI合成换脸用于虚假宣传案件频发,如冒充明星带货、杜撰非遗传承人等违法牟利行为[3][4] AI生成内容放大治理难题的三大特征 - "更易":生成高度真实感内容门槛降低,中部某省村民通过AI模型批量生成热点文章获取流量收益[5] - "更多":技术实现虚假信息工业化生产,如"医疗泰斗客死他乡"谣言通过500账号矩阵日均产出1万条[2] - "更真":多模态信息增强迷惑性,如"西安市鄠邑区地下出热水"谣言因细节丰富难以辨别[6] AI标识制度的双重机制与责任体系 - 建立"显式标识+隐式标识"双重机制,显式标识降低内容可信度,隐式标识嵌入元数据实现机器识别[3] - 责任主体覆盖生成合成服务提供者、传播平台及用户全链条,生成平台需添加元数据标识,传播平台需核验标识[3] - 显式标识适用范围限定于易引起混淆误认的领域,避免过度标识导致信息过载[5] AI标识的理论效能与实践局限 - 隐式标识可将治理关口前移至生成阶段,提升识别效率应对"低门槛""大批量"挑战[4] - PNAS Nexus研究显示4976名受试者对标注"AI生成"的新闻标题信任度降低,分享意愿下降[8] - 技术存在"易规避"(开源模型水印可移除)、"易伪造"(模仿水印嵌入)、"易误判"(传统算法误判率高达100%)三大短板[9][12][13] AI标识与现有治理体系的协同路径 - 标识制度应聚焦高风险领域(谣言、虚假宣传),与举报删除、黑名单等现有措施协同[8] - 对低风险领域(B端应用、数据合成等)可探索多元治理路径,参考欧盟《人工智能法案》豁免条款[9] - 传播平台标识检测成本高于生成平台,需在责任界定中保持包容性,美国加州和欧盟法案均未强制传播平台担责[9]