AI谣言辨别

搜索文档
如何遏制人工智能“说谎”
人民日报· 2025-08-21 16:13
AI谣言治理挑战 - AI生成虚假信息具有高度迷惑性和易传播特性 对监管部门、平台和技术开发者构成系统性挑战 [1] - 需要技术完善与法律规制双管齐下 通过多方联动共治格局解决防治难题 [1] 法律规制进展 - 近期出现多起AI造谣处罚案例:广西网民因AI造谣燃气涨价受行政处罚 传播谣言账号被禁言或关闭 [2] - 已出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规 明确法律底线和执法依据 [2] - 当前存在违法成本过低问题 需通过司法解释明确各方义务边界和侵权责任认定标准 [2] 技术取证难点 - AI谣言案件存在取证困难 需构建适应AI技术特性的证据收集与认定系统 [3] - 建议建立司法认定规则与标准 将平台算法透明化(不涉及商业机密和隐私部分) [3] - 地方公安机关正与科研机构合作 开发深度伪造监测预警能力 建立网络谣言闭环处理机制 [3] 平台治理责任 - 部分平台对AI生成内容标识不及时 给虚假信息传播留下时间窗口 [4] - 平台需主动采取下架、删除、辟谣等措施 特别是在重大事件和敏感话题上加强真伪核查 [4] - 应建立便捷举报渠道 对多次造谣用户采取黑名单等禁止性措施 [5] 技术防治手段 - 通过算法识别、大数据分析和区块链溯源等技术手段识别阻断谣言传播 [5] - 利用自然语言处理和图像识别技术自动标记可疑内容并减少推荐 [5] - 探索"动态可追溯责任链"机制 采用内容显式/隐式标识实现倒查追责 [5] 内容识别特征 - AI生成内容存在可识别特征:如六根手指、阴影方向错误、面部表情不协调等视觉破绽 [7] - 需警惕"网友爆料""独家内幕"等标签 通过权威信源核实和交叉验证辨别真伪 [8] 社会协同治理 - 用户需增强法律意识 避免无意识传播未经核实的AI生成内容 [8] - 媒体平台应提升审核能力 通过官方渠道核查信息真实性 [8] - 自媒体从业者需确保信息发布真实准确客观 履行社会责任 [8] - 通过典型案例普及AI谣言生成机制和识别方式 提升公众辨别能力 [8]