Workflow
数据中毒
icon
搜索文档
数据“中毒”会让AI“自己学坏”
科技日报· 2025-08-19 08:18
AI数据中毒威胁 - AI系统在学习过程中输入错误或误导性数据会形成错误认知并作出偏离预期的判断[1] - 数据中毒攻击通过连续欺骗系统可逐渐腐蚀系统为后门植入和数据窃取埋下隐患例如攻击者用红色激光欺骗火车站摄像头30天[2] - 线上系统尤其是依赖社交媒体和网页内容训练的大语言模型中数据投毒已是重大隐患[2] AI爬虫数据采集风险 - 2024年AI爬虫流量首次超过人类用户其中OpenAI的ChatGPT-User占全球网页访问量6% Anthropic的ClaudeBot占13%流量[2] - AI模型大规模采集网页内容可能将故意投放的有毒数据如篡改版权材料和伪造新闻信息带入模型[3] - 有毒数据可能导致版权侵权虚假信息扩散和在关键领域引发安全风险[3] 版权保护技术反击 - 创作者采取技术手段保护版权例如芝加哥大学团队开发Glaze工具可加入像素级干扰使AI误判作品类型[4] - Nightshade工具能在图片植入隐蔽特征使AI学习错误对应关系该工具发布一年下载量超1000万次[4] - Cloudflare公司推出AI迷宫通过制造海量虚假网页消耗AI爬虫算力和时间[4] 去中心化防御技术 - 联邦学习技术允许模型在分布式设备本地学习只汇总参数降低单点中毒风险[5][6] - 区块链技术凭借时间戳和不可篡改特性使模型更新过程可追溯便于定位投毒源头[6] - 多个区块链网络可互相通报可疑模式当识别威胁时立即警示其他系统[6]