深度伪造
搜索文档
国安部:违规使用开源AI,敏感资料被境外IP非法访问下载
新浪财经· 2025-12-26 10:21
AI大模型行业的发展与安全挑战 - AI大模型正加速赋能千行百业并融入日常生活,技术跃迁伴随新的挑战[1] 高速发展背后的潜在风险 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,导致攻击者可未经授权访问内部网络,引发数据泄露 公开案例显示有单位工作人员违规使用开源AI工具,因电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载[2] - 技术滥用与虚假信息产生:深度伪造技术被滥用可能危害个人权益、社会稳定和国家安全 国家安全机关发现某境外反华敌对势力通过深度伪造技术生成虚假视频,企图向境内传播以误导舆论和制造恐慌[2] - 算法偏见与决策“黑箱”:AI判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视 测试显示某些AI会系统性偏向西方视角,例如用中英文提问同一历史问题,英文回复会刻意回避、淡化某些史实甚至包含错误信息,而中文回复相对客观[2] 用户安全使用守则 - 划定“活动范围”:做到权限最小化,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限如“数据共享”和“云空间”[3] - 检查“数字足迹”:养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯 避免随意下载使用来源不明的大模型程序,对要求提供身份证、银行账户等敏感信息保持警惕[3] - 优化“人机协作”:向AI提问时在提示词中明确禁止其过度推演,并要求显示来源或思考过程 对重要信息进行跨平台验证,合理辨别AI生成结果,在涉及政治、历史、意识形态等话题时保持独立思考,辩证看待回答以避免“AI幻觉”[3] 监管与举报机制 - 国家安全机关提示安全是发展的前提,用户应提高安全意识并审慎授权大模型软件权限[4] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关举报[4]
国家安全部:某境外反华敌对势力通过深度伪造技术生成虚假视频,并企图向境内传播,以误导舆论、制造恐慌
新浪财经· 2025-12-26 07:32
AI大模型行业应用与赋能现状 - AI大模型正加速赋能千行百业,推动生活日新月异,成为能干的“数字伙伴”并融入日常生活 [1] - 在教育领域,AI可将教师备课时间从两小时大幅缩短至五分钟,并能生成包含图片、视频和互动问答的生动教案,使教师能更关注学生个体并定制专属练习题 [1] - 在养老与消费领域,智能音箱等AI产品能为独居老人提供陪伴、娱乐、用药提醒等个性化服务 [1] - 在就业市场,大模型正在创造如提示词工程师、AI绘图师等前所未有的新岗位,推动职业转型 [1] AI大模型发展面临的主要风险与挑战 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,且配置不当(如默认开启公网访问且未设密码),导致攻击者可未经授权访问内部网络,引发数据泄露 [2] - 技术滥用与虚假信息产生:深度伪造(Deepfake)技术可被用于智能模拟和伪造图片、音频及视频,一旦被恶意使用,将对个人权益、社会稳定及国家安全构成威胁 [2] - 算法偏见与决策“黑箱”:AI的判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,例如某些AI在回答历史问题时,英文回复会系统性偏向西方视角、刻意回避或淡化某些史实,甚至包含错误信息,而中文回复相对客观 [3] 安全使用AI大模型的建议守则 - 划定“活动范围”:遵循“权限最小化”原则,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限如“数据共享”和“云空间” [4] - 检查“数字足迹”:养成定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备等习惯,同时避免随意下载使用来源不明的大模型程序,并对索取敏感信息的要求保持警惕 [4] - 优化“人机协作”:向AI提问时,在提示词中明确禁止AI过度推演,并要求其显示来源或思考过程,对重要信息进行跨平台验证,合理辨别AI生成结果,特别是在涉及政治、历史、意识形态等话题时,需保持独立思考,辩证看待回答,避免陷入“AI幻觉” [4] 国家安全机关提示与举报渠道 - 安全是发展的前提,发展是安全的保障,需懂科技并安全使用科技,使AI大模型成为推动社会进步的正能量 [5] - 广大用户应提高安全意识,审慎授权大模型软件权限 [5] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关举报 [6]
国家安全机关提示:使用智能设备,牢记这三条守则
新浪财经· 2025-12-26 07:32
AI大模型行业应用与赋能 - AI大模型正加速赋能千行百业,推动生活日新月异,成为融入日常生活的“数字伙伴” [1] - 在教育领域,AI可将教师备课时间从两小时缩短至五分钟,并生成包含图片、视频和互动问答的生动教案,使教师能节省时间以更关注学生个体情况并提供一对一定制练习题 [1] - 在养老与消费领域,智能音箱等AI产品能为独居老人提供陪伴、娱乐、用药提醒等个性化服务 [1] - 在就业市场,大模型正在创造如提示词工程师、AI绘图师等前所未有的新岗位,为从业者(如文案策划)提供转型机会 [1] AI大模型发展面临的挑战与风险 - 数据隐私与安全边界模糊:个别单位因直接使用开源框架建立联网大模型,且配置不当(如默认开启公网访问未设密码),导致攻击者可未经授权访问内部网络,引发数据泄露 [2] - 技术滥用与虚假信息产生:深度伪造(Deepfake)技术可被用于智能模拟和伪造图片、音频及视频,一旦被恶意使用,将对个人权益、社会稳定及国家安全构成风险与挑战,例如境外势力利用其生成虚假视频以误导舆论 [2] - 算法偏见与决策“黑箱”:AI的判断基于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,测试显示某些AI在回答历史问题时,英文回复会系统性偏向西方视角、刻意回避或淡化史实甚至包含错误信息,而中文回复相对客观 [3] AI大模型安全使用准则 - 划定“活动范围”,实现权限最小化:联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的“数据共享”、“云空间”等访问权限 [4] - 检查“数字足迹”,养成良好安全习惯:包括定期清理AI聊天记录、修改AI工具密码、更新防病毒软件、查看账号登录设备,同时避免随意下载来源不明的大模型程序,并对索取身份证、银行账户等敏感信息的要求保持警惕 [4] - 优化“人机协作”,提升使用辨别能力:向AI提问时,应在提示词中明确禁止其过度推演并要求显示来源或思考过程,对重要信息进行跨平台验证,合理辨别AI生成结果,特别是在涉及政治、历史、意识形态等话题时需保持独立思考,辩证看待回答以避免“AI幻觉” [4] 行业监管与用户行动指引 - 国家安全机关强调安全是发展的前提,发展是安全的保障,需懂科技并安全使用科技以使AI大模型成为推动社会进步的正能量 [5] - 广大用户应提高安全意识,审慎授权大模型软件权限 [5] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号或直接向当地国家安全机关进行举报 [5][6]
国家安全部:一份给您的“智能生活安全说明书”
央视网· 2025-12-26 07:00
AI大模型行业应用与影响 - AI大模型正加速赋能千行百业,推动生活日新月异,成为能干的“数字伙伴”并加速融入日常生活 [3] - 技术应用案例显示,AI能显著提升效率,例如教师使用AI备课可将时间从2小时缩短至5分钟,并实现个性化教学 [1] - AI正在创造新的就业岗位,例如文案策划可转型为提示词工程师,从智能客服到AI绘图师等前所未见的新岗位正在出现 [1] - AI应用场景扩展至个人生活,例如智能音箱能为独居老人提供陪伴、提醒服务并管理个人信息 [1] AI技术发展伴随的潜在风险 - 数据隐私与安全边界模糊构成风险,个别单位因使用开源框架建立联网大模型,导致攻击者可未经授权访问内部网络并引发数据泄露 [4] - 技术滥用风险突出,深度伪造技术可被用于生成虚假图片、音频及视频,一旦被恶意使用将对个人权益、社会稳定和国家安全构成威胁 [4] - 算法偏见与决策“黑箱”问题存在,AI判断源于训练数据,若数据存在社会偏见或代表性不足,大模型可能放大歧视,测试显示某些AI会系统性偏向西方视角 [4] 安全使用AI的指导原则 - 划定“活动范围”原则,要求做到权限最小化,例如联网AI不处理涉密数据、语音AI不收集环境语音、智能助手不保存支付密码,并关闭不必要的访问权限 [7] - 检查“数字足迹”原则,建议用户养成定期清理AI聊天记录、修改密码、更新防病毒软件、查看登录设备等习惯,并避免下载来源不明的大模型程序 [7] - 优化“人机协作”原则,建议向AI提问时在提示词中明确禁止过度推演,要求AI显示来源或思考过程,并对重要信息进行跨平台验证,特别是在涉及政治、历史等话题时保持独立思考 [7] 行业监管与用户责任 - 国家安全机关提示安全是发展的前提,发展是安全的保障,只有懂科技、安全使用科技才能让AI大模型成为推动社会进步的正能量 [8] - 广大用户应当提高安全意识,审慎授权大模型软件权限 [8] - 如发现AI大模型存在窃取个人信息、向境外传输敏感数据等危害网络安全的问题线索,可通过12339电话、网络举报平台或向当地国家安全机关举报 [8]
人民网发布《中国内容科技十大进展(2021-2025)》
人民网· 2025-12-25 21:16
文章核心观点 - 报告系统梳理了“十四五”期间中国内容科技领域从“工具赋能”迈向“生态重构”的突破性成果,展现了智能化、垂直化、体系化的发展态势 [1] - 内容科技正深刻重塑传媒生态与数字社会面貌,十大进展集中体现了该领域的创新活力与治理智慧 [1] - 一系列进展标志着中国内容科技发展已进入技术创新与监管规范同步深化、应用落地与生态构建协同推进的新阶段 [11] 国产通用大模型与媒体融合 - 2023年以来,以“文心一言”、“通义千问”为代表的国产大模型集中上线,DeepSeek等开源模型因高性能、低成本备受关注 [2] - 大模型向媒体垂直领域深度渗透,催生了人民网“写易”、人民智媒大模型、新华社MediaGPT、“央视听大模型”等行业专用模型 [2] - 大模型成为推动内容生产、交互与服务智能化升级的新型基础设施,显著拓展了媒体融合的深度与广度 [2] AIGC驱动内容生产变革 - 自2023年起,剪映AI生成、腾讯智影等视频生成工具陆续推出,2024年Sora等技术进步进一步激发国内视频生成创新 [3] - 虚拟数字人如央视网小C、AI手语主播在重大报道中广泛应用,人民日报“AIGC编辑部”等实践不断涌现 [3] - 推动内容生产向自动化、个性化演进,实现影视特效、3D建模等工作的智能化、自动化与规模化,大幅提升创作效率、质量与表现形式 [3] 国家级科研与数据基础建设 - 2019年起,科技部批准设立“传播内容认知国家重点实验室”等多个国家级科研平台,聚焦内容认知、媒体融合、超高清制播等前沿方向 [4] - 为行业关键技术创新与共性解决方案研发提供坚实支撑,有力促进了产学研协同与自主创新体系建设 [4] - 积极推进如人民网“主流价值语料库”、“语料社区”等国家级语料库建设,以应对大模型对高质量训练数据的需求 [5] - 这些语料库显著提升了大模型的中文理解能力、安全性与价值观对齐水平,为国产大模型健康可持续发展提供了高质量、权威可信的数据基础 [5] 内容审核与安全治理 - 2019年至2022年,多模态内容识别系统逐步建立 [6] - 2023年后,面对AIGC内容爆发,融合大模型语义理解、多模态融合分析与人工复核的“AI审核AI”新范式加速落地,形成全流程审核闭环 [6] - “白泽”、“人民审校”等平台相继推出,实现了对海量文本、图像、音视频内容的精准识别与实时安全检测 [6] - 针对深度伪造等安全风险,2020年至2023年间,公安部、国家网信办积极推动“AI打假”技术研发,百度等企业推出检测平台,人民网上线“天目”识别系统 [9] - 2024年,AI诈骗鉴别技术被纳入网络安全重点工程,“以AI治理AI”的新范式助力提升对深度伪造内容的识别与溯源能力 [9] 智能修复与虚实共生应用 - 2020年以来,基于GAN和扩散模型的影像修复技术日趋成熟,可实现老照片、老影像的清晰化、色彩还原与破损修复 [7] - 2023年后,技术进一步向三维重建与动态复原升级,应用于古建筑数字孪生、虚拟展示及非遗传播 [7] - XR、元宇宙、数字孪生等技术自2021年起在传媒、文旅、教育、城市治理等领域加速融合 [8] - 央视春晚XR舞台、体育赛事VR直播、博物馆AR导览、虚拟演播厅、元宇宙社区等应用层出不穷,人民网“梦幻灵境”AI展演中心落地多地 [8] - 开创了沉浸式传播新场景,推动内容消费从“被动观看”转向“主动参与” [8] 数字藏品与IP价值转化 - 2022年前后,数字藏品逐步成为热点,主流媒体陆续推出“灵境人民艺术馆”、“新华数藏”等平台,探索发行新闻数字藏品 [10] - 2023至2024年,数字藏品进一步与XR、元宇宙场景深度结合,探索虚拟资产跨平台流通与沉浸式展示 [10] - 为内容IP价值转化、用户互动模式创新及文化传播提供了新载体与新思路 [10] 技术规范与监管体系 - 2021年以来,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等系列规章相继出台 [11] - 确立了“包容审慎、分类分级”的监管原则,并建立起全平台内容追溯、算法备案、数据安全管理等机制 [11] - 通过持续开展“清朗”等专项行动,在鼓励技术创新的同时有效规范其应用,推动构建政府、企业、技术、公众共同参与的治理格局 [11]
日本近半数涉未成年人深度伪造色情内容由同学所为
新华社· 2025-12-18 12:41
案件基本情况 - 日本警方今年前9个月处理涉及18岁以下未成年人的深度伪造色情案件共79起 [1] - 案件受害者中初中生占比约52% 高中生占比约32% 小学生占比约5% [1] - 约80%的案件受害者是初中生或高中生 [1] - 约53%的案件由受害者的同学制作或传播深度伪造图像 [1] - 约6%的案件作案人是受害者通过社交媒体结识的人 另有6%由学校教职员工或其他学校学生实施 [1] - 约半数案件的作案人与受害者在同一所学校就读 [1] 作案手法与来源 - 用于生成深度伪造色情内容的照片通常取自毕业纪念册 [1] - 约18%的案件涉及使用生成式AI制作照片 [2] - 虽然约80%的案件无法明确识别生成图像的手法 但据信其中许多使用了人工智能技术 [2] 案件处理与趋势 - 这是日本警察厅首次就此类案件发布详细数据 [1] - 在79起案件中 警方对4起以涉嫌诽谤罪等为由展开刑事调查 另有6起对实施者给予行为矫正指导 [1] - 在日本 未经同意制作并传播色情图像构成侵权 涉案者还可能面临诉讼 [1] - 去年日本警方共处理了110起相关案件 [2] - 随着人工智能技术日益普及 公众对深度伪造传播色情内容行为的担忧日益加剧 [2] 技术定义与影响群体 - 深度伪造指用人工智能技术制作看起来真实度很高的视频 图片或音频片段 可将色情影像中的人物改变成另外一人的样貌 [1] - 这类犯罪事件大多针对女性和未成年人 [1]
AI与人|“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 13:26
文章核心观点 - 以AI工具大规模生成的劣质、重复或无意义内容(被称为“AI垃圾”或“Slop”)正在互联网上泛滥,其背后推手是技术的滥用与对经济利益的追逐,这种现象正在侵蚀信息质量、模糊真实与虚构的界限,并引发信任危机,应对措施包括技术标注、行业标准及用户自身的辨别与支持[1][2][4][5][6][7][8] “AI垃圾”的定义与特征 - “AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化内容农场[2] - 其与旨在欺骗的“深度伪造”或属于技术错误的“AI幻觉”不同,“AI垃圾”的错误更多源于敷衍而非欺骗或技术局限,范围更广且更随意[3] - 这类内容正遍布各平台,例如OpenAI的Sora可几秒内生成荒诞视频,LinkedIn上充斥AI包装的“专家箴言”,谷歌搜索结果会出现“姜黄能治愈心碎”等无稽之谈[2] “AI垃圾”泛滥的成因 - 技术层面:AI技术日益强大且成本低廉,ChatGPT、Gemini、Claude、Sora、Veo等工具使几秒内生成文本、图像与视频成为可能,为内容农场的海量生产提供了便利[4] - 经济驱动:滥用AI工具海量生成内容旨在博取点击和广告收入,例如有YouTube频道仅凭4个视频就积累了420万订阅和数亿播放量[4] - 平台算法:平台算法往往更看重内容的点击与互动数据而非质量,发布越频繁获得关注越多,无形中助推了“AI垃圾”的传播[4] “AI垃圾”的影响与后果 - 数量爆发时,垃圾信息充斥网络会导致可信来源在搜索结果中排名下降,真实与虚构的界限变得模糊[5] - 信任危机会带来切实后果,当无人能辨真假时,错误信息传播得更快[6] 行业应对措施与挑战 - 部分公司已开始尝试为AI生成内容添加标签并调整算法,例如Spotify降低劣质内容推荐权重,谷歌、抖音与OpenAI等公司承诺推出水印系统[7] - 行业正推动C2PA(内容来源与真实性联盟)标准,由Adobe、亚马逊、微软、Meta等企业共同支持,通过元数据嵌入记录数字文件的创建与编辑过程以追溯来源[7] - 应对措施面临挑战,水印和元数据可能被剥离、忽略或转码失效,且多数平台尚未形成一致的执行规范[7] - 最有效的防护在于人类自身,包括放慢节奏、核实来源以及支持坚持用心创作的作者[7][8]
“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 10:20
文章核心观点 - 当前互联网,尤其是社交媒体平台,正泛滥着大量由AI工具生成的劣质、重复或无意义的内容,即“AI垃圾”(AI Slop),这类内容正在侵蚀信息质量和用户信任 [1] “AI垃圾”的定义与表现 - “AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化内容农场 [2] - 具体表现包括:利用OpenAI的Sora几秒内生成荒诞视频、LinkedIn上充斥AI包装的“专家箴言”、谷歌搜索结果中出现如“姜黄能治愈心碎”等无稽之谈 [2] “AI垃圾”与其他AI生成内容的区别 - “AI垃圾”与“深度伪造”或“AI幻觉”不同,其区别在于意图与质量 [3] - “深度伪造”目的在于欺骗,以假乱真;“AI幻觉”属技术错误,是模型预测偏差;而“AI垃圾”错误源于敷衍,范围更广、更随意,源于人们用AI批量生产内容却疏于核对 [3] “AI垃圾”泛滥的驱动因素 - 技术层面:AI技术日益强大且成本低廉,ChatGPT、Gemini、Claude、Sora、Veo等工具使几秒内生成可读文本、图像与视频成为可能 [4] - 经济动机:滥用AI工具海量生成内容旨在博取点击和广告收入,例如某个YouTube频道仅凭4个视频就积累了420万订阅和数亿播放量 [4] - 平台算法:平台算法往往更看重内容的点击与互动数据,而非质量,发布越频繁获得关注越多,AI让这类操作变得易如反掌 [4] “AI垃圾”的潜在影响 - 当数量爆发,垃圾信息充斥网络,会导致可信来源在搜索结果中排名下降,真实与虚构的界限变得模糊 [5] - 信任危机会带来切实后果,即错误信息传播更快 [5] 行业应对措施与挑战 - 部分平台如Spotify开始为AI生成内容添加标签,并调整算法以降低劣质内容的推荐权重 [6] - 谷歌、抖音与OpenAI等公司承诺推出水印系统,帮助用户区分人工内容与合成内容,但若内容被截图、转码或改写,这些方法可能失效 [6] - 行业标准C2PA(内容来源与真实性联盟)由Adobe、亚马逊、微软、Meta等企业共同支持,通过将元数据嵌入数字文件记录创建过程,但难点在于普及,元数据可能被剥离,且多数平台尚未形成一致的执行规范 [6] - 最有效的防护在于人类自身,即放慢节奏、核实来源、支持坚持用心创作的作者 [6]
“AI垃圾”泛滥 最后的防线在人类自身
科技日报· 2025-12-16 08:23
行业现象:AI生成低质内容泛滥 - 当前互联网尤其是社交平台正泛滥一种被称为“AI垃圾”的内容 其特点是错漏百出、古怪、重复且缺乏质量 正在侵蚀人们的思想[1] - “AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频 常见于社交媒体和自动化内容农场[2] - 与旨在欺骗的“深度伪造”或属于技术错误的“AI幻觉”不同 “AI垃圾”范围更广更随意 其错误源于敷衍而非欺骗或技术局限[3] 技术滥用与商业模式推手 - AI技术日益强大且成本低廉 使得几秒内生成可读文本、图像与视频成为可能 为“AI垃圾”的批量生产提供了条件[4] - 内容农场应运而生 利用AI填充网站、社交动态和YouTube频道远比人工创作更快 例如某个YouTube频道仅凭4个视频就积累了420万订阅和数亿播放量[4] - 平台算法往往更看重内容的点击与互动数据而非质量 发布越频繁获得关注就越多 这无形中助推了“AI垃圾”的传播[4] - 利益是幕后推手 部分创作者通过发布虚假名人消息或标题党视频来博取点击和广告收入[4] 对信息生态的潜在影响 - 当“AI垃圾”数量爆发 会挤占可信来源在搜索结果中的排名 使真实与虚构的界限变得模糊[5] - 信任危机会带来切实后果 当无人能辨真假时 错误信息会传播得更快[6] 行业应对措施与尝试 - 部分平台如Spotify开始为AI生成内容添加标签 并调整算法以降低劣质内容的推荐权重[8] - 谷歌、抖音与OpenAI等公司承诺推出水印系统 以帮助用户区分人工内容与合成内容[8] - 行业正在推动名为C2PA的内容来源与真实性联盟标准 该标准由Adobe、亚马逊、微软、Meta等企业共同支持 通过将元数据嵌入数字文件来记录其创建与编辑过程[8] - 最有效的防护在于人类自身 放慢节奏、核实来源、支持坚持用心创作的作者是重要的开始[8] 行业长期挑战与本质 - “AI垃圾”是互联网垃圾信息故事的新篇章 其特点是更快、更流畅、也更难察觉[9] - 网络能否保持其应有的品质 取决于人们是否依然珍视人类的真诚创作 而非机器的机械输出[9]
山西省消协发布警示:当心“AI换脸”“AI配音”新型诈骗
中国新闻网· 2025-12-12 11:08
文章核心观点 - 山西省消费者协会发布警示,提醒消费者警惕利用“AI换脸”和“AI配音”等“深度伪造”技术实施的新型诈骗,此类诈骗在2025年人工智能技术深度普及的背景下迷惑性极强,对消费者财产安全与个人隐私构成严重威胁 [1] 新型诈骗手段与流程 - 诈骗分子首先在抖音、微信视频号、微博等社交平台广泛搜集消费者或其亲友公开发布的清晰面部视频和语音片段,用于AI模型训练 [1] - 随后利用“深度伪造”技术合成出足以以假乱真的视频或音频 [1] - 接着精心设计紧急情境,如声称遇到车祸、被拘留或业务急需付款等,利用受害者的慌乱心理降低其警惕性 [1] - 最后通过视频通话或发送伪造的语音、视频片段直接联系消费者,要求其向指定账户转账 [1] 典型诈骗场景 - 合成子女、父母或好友的影像,在视频通话中以“急需用钱”为由要求转账 [2] - 针对企业财务人员或员工,冒充公司领导通过视频会议下达紧急支付指令 [2] - 伪造执法人员视频,以涉嫌违法为由要求消费者将资金转移至所谓“安全账户”进行核查 [2] 消费者防范原则:“三不” - 不轻信:对于任何通过非见面方式提出的转账汇款要求,即便看到真人视频或听到熟悉声音,也应高度警惕,尤其要提防对方制造紧急氛围阻碍核实 [2] - 不转账:在未通过其他可靠途径百分之百确认对方身份前,坚决不进行任何转账操作 [2] - 不泄露:需注重个人信息保护,审慎在社交媒体分享清晰的正面视频、语音,避免敏感信息过度公开 [2] 消费者防范原则:“二要” - 要核实:若遇“亲友”通过视频借钱,务必挂断后使用自行存储的联系方式回拨核实,或通过共同亲友交叉确认;可与家人、挚友预先约定资金往来暗语 [3] - 要警惕:需保持观察,AI合成内容可能存在人物表情僵硬、眨眼不自然、口型对不上、声音有电子音或断句不合理等细微破绽;公检法等机关绝不会通过视频或电话要求转账至“安全账户”,凡要求保密、隔绝与他人的联系,均是诈骗典型特征 [3] 受骗后应对措施 - 一旦发觉被骗,应第一时间拨打110报警或前往就近派出所,并提供对方账号、联系方式、聊天记录、转账凭证等证据 [3] - 立即联系银行客服或通过手机APP尝试冻结对方账户,争取止付,以最大限度减少损失 [3]