数据“中毒”会让AI“自己学坏”
科技日报·2025-08-19 08:18
随着AI爬虫的大规模抓取,许多创作者担心作品被未经许可使用。为了保护版权,创作者采取了法律 和技术手段。如《纽约时报》起诉OpenAI,称其新闻报道被模型学习再利用,侵犯了版权。 面对旷日持久的版权拉锯战,一些创作者转向技术"自卫"。美国芝加哥大学团队研发了两款工具。名为 Glaze的工具可在艺术作品中加入微小的像素级干扰,让AI模型误以为一幅水彩画是油画。另一款工具 Nightshade更为激进,它能在看似正常的猫的图片中植入隐蔽特征,从而让模型学到"猫=狗"这样的错 误对应。通过这种方式,艺术家们让自己的作品在训练数据中成为"毒药",保护了原创风格不被复制。 在一个繁忙的火车站,监控摄像头正全方位追踪站台的情况,乘客流量、轨道占用、卫生状况……所有 信息实时传输给中央人工智能(AI)系统。这个系统的任务是帮助调度列车,让它们安全准点进站。 然而,一旦有人恶意干扰,比如用一束红色激光模拟列车尾灯,那么摄像头可能会误以为轨道上已有列 车。久而久之,AI学会了把这种假象当作真实信号,并不断发出"轨道占用"的错误提示。最终,不仅列 车调度被打乱,甚至还可能酿成安全事故。 澳大利亚《对话》杂志日前报道称,这是数据" ...