Workflow
AI谣言
icon
搜索文档
为博流量利用AI造谣“在监狱直播带货” 一网民被行政处罚
新京报· 2025-10-29 08:53
AI技术滥用与网络谣言治理 - AI生成技术普及导致虚假图像和视频的生成门槛大幅降低,部分人员在猎奇和博取流量的驱使下编造传播网络谣言[1] - 山东威海网安部门查获两起通过AI工具编造传播网络谣言的违法行为,案例一为编造“在监狱直播带货”图片谣言,案例二为在广东台风期间编造“教学楼受损”虚假灾情视频[1] - 公安机关依法对两名违法行为人给予行政处罚[2] AI谣言产业链与风险特性 - AI谣言背后已形成分工明确的灰色产业链,具备低成本量产特性,单日最高可生成4000至7000篇虚假文章,成本仅为传统造谣的1%[4] - 与传统谣言相比,AI谣言危害性呈指数级放大,具有高仿真与强迷惑性,普通网民难以分辨[4] - AI谣言进化迭代能力强,能针对辟谣信息快速生成新版本进行反驳,形成动态对抗,增加治理难度[4] 识别与防范AI谣言的措施 - 信息接收者可通过查源头方式识别AI谣言,警惕来源模糊或伪装成网友投稿及内部消息的内容,可靠信息通常有正规新闻机构或官方信源背书[5] - 观察图片和视频细节,注意是否存在AI生成的典型痕迹,如人物手指数量异常、光影效果不自然或口型与声音不同步[5] - 通过验逻辑判断内容是否存在明显事实错误或逻辑矛盾,例如时间线错乱或地理信息错误,并善用权威辟谣平台进行查证[5][6]
净网—2025|网警提醒:别把AI用错了地方!
环球网资讯· 2025-10-29 07:52
AI生成技术带来的风险与挑战 - AI生成技术普及导致谣言传播门槛大幅降低,存在以假乱真的图像和视频生成能力[1] - 部分人员受猎奇和博取流量驱动,利用AI工具编造和传播网络谣言,已出现两起行政处罚案例[2] - AI谣言已形成分工明确的灰色产业链,具备低成本量产特性,单日最高可生成4000至7000篇虚假文章,成本仅为传统造谣的1%[6] AI谣言的技术特性与危害 - 与传统谣言相比,AI谣言危害性呈指数级放大,具有高仿真与强迷惑性,普通网民难以分辨[6] - AI谣言进化与迭代能力强,能针对辟谣信息快速生成新版本进行反驳,形成动态对抗,增加治理难度[6] - 具体案例包括编造"在监狱直播带货"图片谣言和台风期间虚假灾情视频,均引发大量关注并扰乱公共秩序[2] 识别与防范AI谣言的措施 - 信息接收者可通过查源头方式识别潜在AI谣言,警惕来源模糊或伪装成内部消息的内容,可靠信息应有正规新闻机构或官方信源背书[7] - 观察细节如图片视频中人物手指数量异常、光影效果不自然、口型与声音不同步等AI生成痕迹[7] - 通过验逻辑判断内容是否存在事实错误或逻辑矛盾,并善用权威辟谣平台和公安部网安局警示信息进行查证[7] 行业监管与法律责任 - 根据《中华人民共和国治安管理处罚法》,散布谣言故意扰乱公共秩序可处五至十日拘留并处五百元以下罚款[5] - 公安机关严厉打击恶意编造传播网络谣言行为,要求网民遵守法律法规,不造谣不信谣不传谣,积极举报违法行为[9]
央媒揭AI造谣利益链:有MCN机构每天发数千条谣言 收入万元以上
新华社· 2025-09-17 07:30
AI谣言的生产与传播特征 - AI技术可高效生成内容逼真、欺骗性强的虚假信息,并可通过过滤、推荐机制将虚假信息聚合形成“证据链”,造成误导[2][3] - 2023年以来伴随AIGC技术高速发展,AI谣言量出现高速增长,经济与企业类谣言和公共安全类谣言占比最多、增速最快,其中餐饮外卖、快递配送等民生行业成为谣言重灾区[2] - 网络谣言常配有AI伪造的图片、视频甚至所谓“官方回应”,极具迷惑性[2] AI谣言的商业化驱动模式 - 不法者造谣动机主要源于牟取互联网内容平台给予创作者的奖励以及为电商平台经营引流,收益可通过广告收入、合同推广、直播带货等商业活动获得[6] - 某MCN机构运营842个自媒体账号,平均每天通过AI工具发布4000到7000条信息,单条最高收入700元,初步估算日收入在1万元以上[6] - 不正当商业竞争催生AI谣言黑色产业链,“金主”企业通过公关公司组织自媒体运营者利用AI技术生成并扩散抹黑竞争对手的内容[6] AI谣言对企业的冲击与挑战 - 企业面临辟谣工作带来的繁重负担,需耗费大量人力、精力进行解释以消除不利影响[7] - 相关行业企业在应对AI谣言中面临维权难、舆论修复难等挑战[7] AI谣言的全链条治理举措 - 公安部组织全国公安机关持续开展打击整治网络谣言工作,重拳打击编造传播涉企业、涉民生等领域网络谣言违法犯罪活动[8] - 中央网信办启动“清朗·整治‘自媒体’发布不实信息”专项行动,重点整治利用AI生成合成技术编造社会民生等领域虚假信息的问题[8] - 建议平台加强对AI造谣行为的智能识别,改革涉及AI内容的流量分发和收益分成机制,压缩通过AI造谣牟利的空间[8] - 司法治理需针对AI造谣链条的前端发布主体、中端技术手段和末端危害进行全链条打击和预防[9]
新华视点·关注AI造假丨耸人听闻背后的生意经——揭开AI造谣利益链
新华社· 2025-09-16 19:05
AI造谣现象日益频繁 - 利用AI生成虚假信息事件频发,例如有公众号运营者使用AI编造“30万居民撤离上海”等不实信息引发恐慌[1] - 2023年以来伴随AIGC技术高速发展,AI谣言量呈现高速增长态势[2] - 在各类AI谣言信息中,经济与企业类谣言和公共安全类谣言占比最多且增速最快,其中餐饮外卖、快递配送等民生行业成为重灾区[2] AI造谣内容特征与危害 - AI技术使网络谣言内容更为逼真,常配有伪造图片、视频甚至所谓“官方回应”,极具迷惑性[2] - AI不仅能高效生成虚假信息,还能通过过滤推荐机制将虚假信息聚合形成“证据链”,对普通用户和专业人士造成误导[2] - 虚假信息给企业带来繁重辟谣负担,需要耗费大量人力精力进行解释工作以消除不利影响[5] 流量变现驱动商业化黑产 - 不法分子利用AI工具批量生成不实文章进行吸粉引流,有案例显示某运营者平均每天通过AI工具发布4000到7000条信息[3][4] - 单条信息最高收入达700元,每日收入初步估算在1万元以上[4] - 造谣动机主要源于牟取互联网内容平台给予创作者的奖励,以及为电商平台经营引流,还可从广告收入、合同推广、直播带货等商业活动中获益[4] 不正当竞争催生黑色产业链 - 企业通过公关公司组织自媒体运营者和KOL,利用AI技术生成虚假信息大批量抹黑竞争对手[4][5] - 此后还有营销公司及流量商加入,进一步扩散传播谣言,形成商业化运作黑色产业链[5] - AI造谣已形成完整产业链,行业企业面临维权难、舆论修复难等挑战[5] 全链条治理措施与建议 - 公安部持续开展打击整治网络谣言工作,重拳打击编造传播涉企业、涉民生等领域网络谣言违法犯罪活动[5] - 中央网信办启动“清朗·整治‘自媒体’发布不实信息”专项行动,重点整治利用AI生成合成技术编造虚假信息[5] - 专家建议平台加强对AI造谣的智能识别,改革流量分发和收益分成机制,压缩通过AI造谣牟利的空间[6]
给生成式内容装上“刹车”,刹住AI谣言歪风
齐鲁晚报· 2025-09-15 08:39
AI技术滥用与网络谣言治理 - AI技术大幅降低造谣门槛 几秒钟即可生成细节饱满且图文并茂的虚假内容 造成公众难辨真伪 [1] - AI编造虚假信息案例引发社会关注 如"多只小猫被挖眼砍断四肢"谣言 编造者已被依法行政处罚 [1] 网络谣言传播特征与社会影响 - 动物保护等社会热点话题易成为流量密码 通过激发群体愤怒情绪实现广泛传播 [1] - 谣言纠正过程需消耗大量时间与人力成本 造成公共资源无端浪费 形成"造谣一张嘴 辟谣跑断腿"现象 [1] 网络生态治理多方协作机制 - 相关部门需细化法规制度并创新监管技术 在网络谣言传播初期及时制止 深入追查造谣者及利益链 [2] - 平台需履行主体责任 通过算法对AI生成内容进行审核标记 并对传播账号采取警示限流或封禁措施 [3] - 建立用户举报机制与畅通渠道 使公众参与防止AI谣言传播过程 共同守护网络信息真实性 [3] 媒介素养与技术治理并重 - 公众媒介素养需不断提升 面对未证实信息保持不轻信不盲从的理性甄别态度 [2] - 需从思想根源摒弃流量至上错误观念 避免为经济利益违背道德与法律 [2] - 为生成式内容安装刹车机制 推动真相传播速度超越算法扩散速度 [3]
一本正经地胡说八道!如何遏制人工智能“说谎”
人民日报海外版· 2025-08-22 08:47
AI谣言治理挑战 - 制造出的虚假信息更具迷惑性且易传播难防治 对政府监管部门 互联网平台 技术研发者及社会各界提出新挑战 [1] 法律规制与执法行动 - 依法惩治AI造谣行为 广西网民郑某因借AI造谣燃气涨价受行政处罚 一批传播AI谣言的网络账号被禁言或关闭 [2] - 近年来AI相关法律法规不断健全完善 出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等 为执法提供法律依据 [2] - 针对生成和传播虚假信息的高风险领域 需通过司法解释等法律形式明确各方义务边界 制定科学合理的AI侵权责任认定指导标准 [2] 技术取证与监测机制 - AI谣言案件取证难困扰办案机关 需构建适应AI技术特性的证据收集与认定系统 [3] - 地方公安机关探索监测识别AI谣言 与科研机构企业合作提高对恶意深度伪造信息的监测预警和快速识别能力 建立网络谣言巡查监测核查反馈会商研判线索移送打击处置的闭环机制 [3] 平台责任与技术措施 - 平台应自觉治理AI谣言 发现后立即采取下架删除辟谣等措施 面对重大事件敏感话题加强图片视频真伪核查 [4] - 建立便捷举报投诉渠道 对网民反映的疑似谣言信息及时查证处理 对多次利用AI造谣用户采取列入黑名单等禁止性措施 [5] - 通过算法识别大数据分析区块链溯源等技术手段识别阻断谣言传播 利用AI系统检测通过自然语言处理和图像识别技术自动标记可疑内容并减少推荐 [5] 公众辨别与媒体责任 - AI生成内容可能存在事实性偏差逻辑漏洞或时效滞后问题 使用过程中应保持审慎态度 不要直接公开发布未经核实的AI生成内容 [8] - 媒体平台应提高内容审核能力 通过官方渠道和权威信源核查信息真实性 自媒体从业者应增强法律意识真实准确客观发布信息 [8] - 通过发布典型案例引导人们了解AI谣言的生成机制传播逻辑话术套路和识别方式 [8]
如何遏制人工智能“说谎”
人民日报· 2025-08-21 16:13
AI谣言治理挑战 - AI生成虚假信息具有高度迷惑性和易传播特性 对监管部门、平台和技术开发者构成系统性挑战 [1] - 需要技术完善与法律规制双管齐下 通过多方联动共治格局解决防治难题 [1] 法律规制进展 - 近期出现多起AI造谣处罚案例:广西网民因AI造谣燃气涨价受行政处罚 传播谣言账号被禁言或关闭 [2] - 已出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规 明确法律底线和执法依据 [2] - 当前存在违法成本过低问题 需通过司法解释明确各方义务边界和侵权责任认定标准 [2] 技术取证难点 - AI谣言案件存在取证困难 需构建适应AI技术特性的证据收集与认定系统 [3] - 建议建立司法认定规则与标准 将平台算法透明化(不涉及商业机密和隐私部分) [3] - 地方公安机关正与科研机构合作 开发深度伪造监测预警能力 建立网络谣言闭环处理机制 [3] 平台治理责任 - 部分平台对AI生成内容标识不及时 给虚假信息传播留下时间窗口 [4] - 平台需主动采取下架、删除、辟谣等措施 特别是在重大事件和敏感话题上加强真伪核查 [4] - 应建立便捷举报渠道 对多次造谣用户采取黑名单等禁止性措施 [5] 技术防治手段 - 通过算法识别、大数据分析和区块链溯源等技术手段识别阻断谣言传播 [5] - 利用自然语言处理和图像识别技术自动标记可疑内容并减少推荐 [5] - 探索"动态可追溯责任链"机制 采用内容显式/隐式标识实现倒查追责 [5] 内容识别特征 - AI生成内容存在可识别特征:如六根手指、阴影方向错误、面部表情不协调等视觉破绽 [7] - 需警惕"网友爆料""独家内幕"等标签 通过权威信源核实和交叉验证辨别真伪 [8] 社会协同治理 - 用户需增强法律意识 避免无意识传播未经核实的AI生成内容 [8] - 媒体平台应提升审核能力 通过官方渠道核查信息真实性 [8] - 自媒体从业者需确保信息发布真实准确客观 履行社会责任 [8] - 通过典型案例普及AI谣言生成机制和识别方式 提升公众辨别能力 [8]
“AI谣言”易传播、难防治 如何遏制人工智能“说谎”?
人民日报· 2025-08-20 08:26
AI谣言治理的法律法规完善 - 近期对AI造谣者实施行政处罚,例如广西网民郑某因借AI造谣燃气涨价受罚,一批传播AI谣言的网络账号被禁言或关闭[2] - 多项AI相关法规出台,包括《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》,为执法提供法律依据[2] - 专家建议针对高风险领域通过司法解释明确各方义务边界,并制定科学的AI侵权责任认定指导标准以解决违法成本过低问题[2] AI谣言案件取证与监测技术挑战 - AI谣言案件存在取证难问题,需构建适应AI技术特性的证据收集与认定系统[3] - 建议将不涉及商业秘密和个人隐私的平台算法透明化,并完善案件证据的司法认定规则与标准以破解责任认定难题[3] - 地方公安机关与科研机构及企业合作,提高对恶意深度伪造信息的监测预警和快速识别能力,并建立从巡查监测到打击处置的闭环机制[3] 平台在阻断AI谣言传播中的责任与技术措施 - 网络平台存在AI生成内容提示不及时问题,给了虚假信息传播时间[4] - 平台应自觉治理AI谣言,发现后立即采取下架、删除、辟谣等措施,并对重大事件和敏感话题加强内容真伪核查[4] - 技术上可通过算法识别、大数据分析和区块链溯源等手段识别和阻断谣言传播,例如利用自然语言处理和图像识别技术自动标记可疑内容[5] - 建议引入动态可追溯责任链机制,使用内容显式标识和隐式标识进行内容倒查和动态追责[5] 提升社会对AI谣言的辨别能力与防范意识 - AI生成内容存在可识别的技术破绽,例如可能生成六根手指、阴影方向错误或面部表情不协调[7] - 公众需对标注“网友爆料”“独家内幕”或逻辑存在漏洞的信息保持警惕,并通过交叉印证和权威信源核实信息真伪[8] - 提醒用户审慎对待未经核实的AI生成内容,防止因事实性偏差、逻辑漏洞或时效滞后问题无意间助推谣言传播[8] - 建议通过发布典型案例普及AI谣言的生成机制、传播逻辑和识别方式,帮助公众增强辨别能力[8]
如何遏制人工智能“说谎”(深阅读)
人民日报· 2025-08-20 06:11
AI谣言带来的挑战与系统性治理需求 - 制造出的虚假信息更具迷惑性,AI幻觉导致一本正经地胡说八道,易传播、难防治,对社会各界提出新挑战[1] - 遏制人工智能说谎需要技术完善与规制,以及系统性治理,需推动形成多方联动的共治格局[1] 法律规范与监管完善 - 依法惩治AI谣言案例显现,如借AI造谣燃气涨价的网民受行政处罚,传播AI谣言的网络账号被禁言或关闭[2] - AI相关法律法规不断健全完善,包括《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,为执法提供法律依据[2] - 针对AI谣言违法成本过低问题,需对不法行为严加惩处,完善法律法规以增强威慑力[2] - 建议针对生成和传播虚假信息的高风险领域,通过司法解释明确各方义务边界,制定科学的AI侵权责任认定指导标准[2] 案件取证与技术应对 - AI谣言案件存在取证难问题,需构建适应AI技术特性的证据收集与认定系统[3] - 建议通过建立完善案件证据的司法认定规则与标准,并将不涉及商业秘密和个人隐私的平台算法透明化,以破解证据与责任认定难题[3] - 地方公安机关探索与科研机构、企业合作,提高对恶意深度伪造信息的监测预警和快速识别能力,并建立闭环打击处置机制[3] 平台责任与技术堤坝加固 - 网络平台上AI生成内容发布时提示语出现不及时,给了虚假信息传播时间[4] - 平台应自觉治理AI谣言,发现后立即采取下架、删除、辟谣等措施,尤其在重大事件和敏感话题上加强真伪核查[4] - 需建立便捷的举报投诉渠道,及时查证网民反映的疑似谣言,对多次利用AI造谣的用户可采取列入黑名单等禁止性措施[5] - 技术上可通过算法识别、大数据分析和区块链溯源等手段识别和阻断谣言传播,例如利用AI系统检测自动标记可疑内容并减少推荐[5] - 监管部门可引入动态可追溯责任链机制,使用内容显式标识和隐式标识,探索AI谣言的内容倒查和动态追责[5] 公众辨别能力与媒体责任 - AI谣言存在可识别的蛛丝马迹,如可能生成六根手指、阴影方向错误、面部表情不协调等[7] - 公众需提高警惕,谨慎分辨网友爆料或独家内幕等字样,通过交叉印证和权威信息核实验证真伪[8] - 需增强法律意识,防止在无意识中助力谣言传播,对未经核实的AI生成内容应保持审慎态度,不要直接公开发布[8] - 媒体平台应提高内容审核能力,通过官方渠道和权威信源核查信息真实性,自媒体从业者应增强法律意识,真实准确发布信息[8] - 通过发布典型案例进行知识普及,帮助公众了解AI谣言的生成机制、传播逻辑和识别方式[8]
“AI谣言”为何易传播难防治?(深阅读)
人民日报· 2025-08-18 06:01
AI技术滥用现状 - AI技术被用于制作发布谣言和不实信息,表现形式多样,如伪造视频和AI生成新闻稿[1] - 中央网信办部署"清朗·整治AI技术滥用"专项行动,重点整治利用AI制作发布谣言等乱象[1] AI谣言产生原因 - "AI幻觉"现象导致虚假信息输出,大模型在专业领域训练语料不足时容易出现推算错误[2][3] - 恶意编造传播"AI谣言"获取利益,包括炒作自媒体账号吸粉和实施诈骗等违法犯罪行为[4] - 形成"需求分析—内容生产—精准投放"的生产链条,有机构一天能生成4000至7000篇假新闻[4] AI谣言传播特点 - 可以做到分平台、分渠道、分时段、分媒介的定制化生成和发布,成本低廉[6] - 利用"灾难+儿童"等组合并删除AI生成标识,引发快速传播[6] - 造谣门槛大幅降低,用开源AI模型30秒即可生成以假乱真的画面[7] AI谣言防治难点 - 表述接近"真话",更难以被技术手段屏蔽[9] - 可通过对抗训练绕过谣言关键词,如把"山体滑坡"改为"地质活动异常"[9] - 传统谣言像火可扑灭源头,"AI谣言"像病毒会不断变异[9] 技术改进方向 - 完全消除"AI幻觉"具有高度挑战,因大模型生成机制本质是概率驱动的语言建模[9] - 通过多模型协同判断、事实增强训练等技术手段可缓解"AI幻觉"发生的频率与危害[9]