AI隐私泄露
搜索文档
细思极恐,让AI编造一个陌生人,结果对方的微信头像“亮”了……
猿大侠· 2026-03-01 12:11
AI大模型生成微信号功能暴露隐私风险 - 近期多起用户通过AI大模型“随机生成微信号”却意外添加到真人的事件,引发用户隐私被“出卖”的困扰 [1] - 事件起源于用户要求豆包AI“生成美女微信号”,生成的号码中最后一个对应真实用户赵女士的微信号,导致其收到陌生好友申请 [1] - 经测试,豆包、元宝、千问、DeepSeek、ChatGPT等平台均存在类似情况:要求生成“虚拟”或“特定风格”微信号时,部分虚拟号码可搜索并添加到真人 [1] 技术漏洞与平台应对 - AI在对话中多次强调保护隐私,提示微信号属于个人隐私不能随意提供,生成时也强调号码“仅作虚拟示例”,但技术漏洞让提醒形同虚设 [1] - 当用户在微信上搜索这些“虚拟”号码,会发现其中一些号码对应着真实存在的微信用户,并成功添加了好友 [1] - 目前,豆包AI平台已进行调整,无法再直接生成随机微信号,当用户提出“生成微信号”要求时,会给出非常明确的拒绝回复,其他平台或许也会跟进 [16] 事件背后的技术原因分析 - **原因一:训练数据包含公开信息**:AI大模型在训练过程中会从互联网上抓取海量公开文本数据,如果某些微信号曾被公开发布在论坛、社交媒体等平台,这些信息就可能被AI学习并作为语料库的一部分 [6] - **原因二:随机生成导致“撞车”**:AI能够根据微信号的格式规则进行随机生成,由于微信用户基数极其庞大,AI生成的字符串恰好与某个真实用户正在使用的微信号“撞车”的概率也随之增加 [6] - **原因三:数据记忆与输出**:AI在训练时可能收集并使用了包含个人信息的数据,导致信息被记忆并随机输出 [6] - 清华大学智能产业研究院专家表示,这种情况大概率是AI基于算法统计自动生成的,属于一种“幻觉”,但如果某个平台能极其精准地大量生成真实微信号,则需要警惕其是否使用了不正常的手段 [7] 潜在风险远超“误加好友” - AI生成微信号可能不仅仅是随机组合字符,而是基于其学习到的数据模式,将用户在不同平台留下的碎片化信息(如用户名、邮箱、手机号、社交动态)进行关联和整合 [8] - 这意味着AI生成的“虚拟”账号,可能恰好对应着一个真实存在且个人信息已被AI“拼凑”完整的用户,为精准的社工攻击或“人肉搜索”提供了便利,攻击者可以利用AI生成高概率匹配的账号并推测密码规律,尝试撞库登录 [8] - AI生成微信号的功能可能被不法分子利用,以极低成本获得“猎物”清单,再结合AI换脸、话术脚本实施精准诈骗 [9] 用户维权困境与平台责任规避 - AI平台通常会声称生成的是“虚拟示例”,并已在对话中做出隐私提醒,以此规避责任 [10] - 平台会将“撞号”解释为算法概率下的巧合,而非有意泄露隐私 [10] - 对于被“命中”的用户来说,要证明自己的信息是被AI平台“泄露”而非“猜中”极其困难,用户维权面临巨大障碍 [10] 用户可采取的自保措施 - **设置复杂微信号**:如果微信号需要对外展示,尽量设置得复杂一些,避免使用姓名、生日等简单、有规律的组合,以降低被AI随机“撞库”的概率 [12] - **调整搜索方式**:在微信隐私设置中,关闭或限制通过“微信号”等方式被搜索到,具体操作为:打开微信,进入“我” -> “设置” -> “朋友权限” -> “添加我的方式”,根据需要关闭“微信号”的搜索权限,也可同时关闭“手机号”、“QQ号”等其他方式 [13][14] - 完成以上设置后,他人将无法通过搜索微信号找到用户,只能通过主动分享的个人二维码名片或群聊等方式添加 [15] - **谨慎通过好友申请**:收到陌生好友申请时,务必先核实对方身份,不要轻易透露身份证、银行卡等敏感信息,防范诈骗风险 [16]
你与AI的聊天,可能在网上公开!隐私泄露风险真的出现了
南方都市报· 2025-11-17 17:07
事件概述 - 大量用户与ChatGPT的对话内容被泄露至谷歌搜索控制台,涉及情感咨询、商业信息等隐私[2] - 这已非AI聊天服务首次发生用户信息泄露事件,表明行业面临新型隐私泄露威胁[2] 技术故障原因 - ChatGPT有时会错误地将用户输入的原始内容直接作为关键词在搜索引擎上检索,导致内容被GSC记录[3] - OpenAI承认并修复了一个影响少量搜索查询路由方式的技术故障[3] - 可能有多个在搜索引擎结果中排名靠前的网站通过GSC接收到泄露的用户内容[3] 历史泄露事件 - 今年8月,谷歌等搜索引擎上可直接查找到大量用户与ChatGPT的对话记录,OpenAI最终移除了分享选项并清除内容[4] - 2024年末,Meta AI存在安全漏洞,黑客可访问其他用户与AI的对话记录,该漏洞于2025年1月被修复[6] - 今年2月,OmniGPT发生重大数据泄露,黑客公开超过3400万条用户与AI的对话记录,涉及办公项目、警方证据等敏感内容[6] - 今年10月,AI陪伴应用Chattee Chat与GiMe Chat发现严重服务器安全漏洞,超过4300万条对话被暴露在互联网[6] 新型隐私威胁 - 微软披露“耳语泄露”漏洞,黑客通过观察AI流式输出机制的数据包大小与传输节奏,可猜测聊天主题类型,准确率超过98%[7] 行业专家建议 - 建议对AI使用的数据进行分级处理,采用隐私分级的方式进行逐级递增的管理和规范[8] - 企业构建数据安全防护体系需从硬件、系统、开发框架、数据、模型及交互式防御等多方面入手[9] - 相关部门应尽快拟定初步标准及规定,并跟随AI技术迭代不断修订[9]