Apple Sued Over Allegations of CSAM on iCloud
苹果苹果(US:AAPL) CNET·2026-02-20 05:43

诉讼核心指控 - 西弗吉尼亚州总检察长对苹果公司提起法律诉讼 指控其iCloud服务多年来被用于存储和传播儿童性虐待材料 且公司知情但未采取行动 [1] - 诉讼引用了据称是2020年2月苹果高管之间的iMessage截图 其中承认了iCloud上存在CSAM的存储和传播问题 [1] - 诉讼称 苹果高管埃里克·弗里德曼在内部对话中曾吹嘘iCloud是“传播儿童色情内容的最佳平台” 并暗示公司在某些领域“选择不去了解” [2] - 同一对话中 弗里德曼提及一篇关于CSAM检测的《纽约时报》文章 并怀疑苹果低估了其产品上CSAM问题的规模 [3] 关于CSAM检测与报告的对比数据 - 诉讼指出 2023年苹果向国家失踪与受虐儿童中心报告的检测到的CSAM案例数量仅为267起 远低于谷歌的147万起和Meta的3060万起 [3] - 诉讼指控苹果未能实施CSAM检测工具 包括其曾开发的一款专有扫描工具 [4] - 苹果在2021年启动了一项扫描iCloud存储图像以查找CSAM的计划 但在次年放弃了该计划 [4] 端到端加密引发的争议 - 诉讼指出 苹果于2022年12月在iCloud推出的“高级数据保护”功能允许对云存储平台上的照片和视频进行端到端加密 该功能被指控是“执法部门的障碍” 阻碍了对CSAM犯罪者的识别和起诉 [5] - 隐私倡导组织如电子前沿基金会支持加密的引入 认为持续扫描儿童虐待图像可能导致无根据的调查和误报 并保护用户数据免受潜在云数据泄露和政府要求的影响 [8] - EFF活动人士表示 阻止使用端到端加密将适得其反 加密是保护在线隐私的最佳方法 对年轻人尤为重要 [9] - 端到端加密也被谷歌的通讯服务以及WhatsApp、Signal和Telegram等流行通讯应用所使用 [10] 公司的回应与现有安全措施 - 苹果公司声明其决策以“安全和隐私”为核心 并持续创新以应对威胁 为儿童维护最安全、最受信任的平台 [5][6] - 苹果强调了其行业领先的家长控制功能 如“通信安全” 该功能在检测到信息、共享照片、AirDrop甚至实时FaceTime通话中出现裸露内容时 会在18岁以下用户的设备上自动干预 [6] - “通信安全”功能默认对18岁以下用户开启 旨在保护儿童免受CSAM内容侵害 但并未解决处理CSAM传播和存储的成年人的问题 [6] 相关法律行动背景 - 此次诉讼于2月19日在西弗吉尼亚州梅森县巡回法院提起 [10] - 在此之前的2024年底 有2680名原告在加州北区地方法院提起集体诉讼 指控苹果放弃CSAM扫描软件等同于默许其在iCloud上的传播和存储 [11] - 2024年8月 北卡罗来纳州也曾代表一名9岁性侵受害者提起类似诉讼 [11] 行业背景与趋势 - 隐私与安全 同执法与网络犯罪之间的平衡 一直是围绕端到端加密辩论的核心 [7] - 数据泄露事件以及政府和执法机构出于各种原因索取用户数据的请求正在增加 [10] - 苹果公司发布透明度报告 披露其收到的政府数据请求数量 但报告数据似乎截止到2024年12月 [10]