Communication Safety
搜索文档
Apple Sued Over Allegations of CSAM on iCloud
CNET· 2026-02-20 05:43
诉讼核心指控 - 西弗吉尼亚州总检察长对苹果公司提起法律诉讼 指控其iCloud服务多年来被用于存储和传播儿童性虐待材料 且公司知情但未采取行动 [1] - 诉讼引用了据称是2020年2月苹果高管之间的iMessage截图 其中承认了iCloud上存在CSAM的存储和传播问题 [1] - 诉讼称 苹果高管埃里克·弗里德曼在内部对话中曾吹嘘iCloud是“传播儿童色情内容的最佳平台” 并暗示公司在某些领域“选择不去了解” [2] - 同一对话中 弗里德曼提及一篇关于CSAM检测的《纽约时报》文章 并怀疑苹果低估了其产品上CSAM问题的规模 [3] 关于CSAM检测与报告的对比数据 - 诉讼指出 2023年苹果向国家失踪与受虐儿童中心报告的检测到的CSAM案例数量仅为267起 远低于谷歌的147万起和Meta的3060万起 [3] - 诉讼指控苹果未能实施CSAM检测工具 包括其曾开发的一款专有扫描工具 [4] - 苹果在2021年启动了一项扫描iCloud存储图像以查找CSAM的计划 但在次年放弃了该计划 [4] 端到端加密引发的争议 - 诉讼指出 苹果于2022年12月在iCloud推出的“高级数据保护”功能允许对云存储平台上的照片和视频进行端到端加密 该功能被指控是“执法部门的障碍” 阻碍了对CSAM犯罪者的识别和起诉 [5] - 隐私倡导组织如电子前沿基金会支持加密的引入 认为持续扫描儿童虐待图像可能导致无根据的调查和误报 并保护用户数据免受潜在云数据泄露和政府要求的影响 [8] - EFF活动人士表示 阻止使用端到端加密将适得其反 加密是保护在线隐私的最佳方法 对年轻人尤为重要 [9] - 端到端加密也被谷歌的通讯服务以及WhatsApp、Signal和Telegram等流行通讯应用所使用 [10] 公司的回应与现有安全措施 - 苹果公司声明其决策以“安全和隐私”为核心 并持续创新以应对威胁 为儿童维护最安全、最受信任的平台 [5][6] - 苹果强调了其行业领先的家长控制功能 如“通信安全” 该功能在检测到信息、共享照片、AirDrop甚至实时FaceTime通话中出现裸露内容时 会在18岁以下用户的设备上自动干预 [6] - “通信安全”功能默认对18岁以下用户开启 旨在保护儿童免受CSAM内容侵害 但并未解决处理CSAM传播和存储的成年人的问题 [6] 相关法律行动背景 - 此次诉讼于2月19日在西弗吉尼亚州梅森县巡回法院提起 [10] - 在此之前的2024年底 有2680名原告在加州北区地方法院提起集体诉讼 指控苹果放弃CSAM扫描软件等同于默许其在iCloud上的传播和存储 [11] - 2024年8月 北卡罗来纳州也曾代表一名9岁性侵受害者提起类似诉讼 [11] 行业背景与趋势 - 隐私与安全 同执法与网络犯罪之间的平衡 一直是围绕端到端加密辩论的核心 [7] - 数据泄露事件以及政府和执法机构出于各种原因索取用户数据的请求正在增加 [10] - 苹果公司发布透明度报告 披露其收到的政府数据请求数量 但报告数据似乎截止到2024年12月 [10]
West Virginia says it has sued Apple over iCloud's alleged role in distribution of child sex abuse material
Reuters· 2026-02-19 23:03
核心诉讼与指控 - 西弗吉尼亚州总检察长对苹果公司提起诉讼 指控其iCloud服务成为内部通信中所描述的“传播儿童色情内容的最大平台” 并指责公司将用户隐私置于儿童安全之上[1] - 该诉讼是政府机构首次就苹果数据存储平台上传播儿童性虐待材料提起的此类案件 诉讼寻求法定和惩罚性赔偿 并要求法官强制苹果实施更有效的检测措施和更安全的产品设计[1] - 诉讼引用了苹果时任反欺诈负责人在2020年的一条短信 其中指出由于苹果的优先事项 它成为了“传播儿童色情内容的最大平台”[1] 苹果的应对措施与立场 - 苹果公司声明已实施功能防止儿童上传或接收裸体图像 并“每天都在创新以应对不断演变的威胁 为儿童维持最安全、最受信任的平台”[1] - 公司表示其行业领先的家长控制功能 如“通信安全” 在检测到信息、共享照片、隔空投送甚至实时FaceTime通话中出现裸体内容时会自动干预 这些功能的核心是用户的安全、安保和隐私[1] - 苹果曾考虑扫描图像 但因对用户隐私和安全的担忧而放弃了该方法 包括担心可能被寻求其他材料以进行审查或逮捕的政府所利用[1] - 苹果未对所有上传至iCloud存储服务的文件进行扫描 且数据未进行端到端加密 这意味着执法部门可通过授权令访问[1] - 2021年8月 苹果宣布了NeuralHash系统 旨在通过在上传前扫描用户设备上的图像来平衡儿童虐待材料的检测与隐私 但该系统在2022年12月被取消[1] - 苹果未实施上传至iCloud的图像扫描 但实施了名为“通信安全”的功能 可模糊发送至或来自儿童设备的裸体和其他敏感内容[1] 行业对比与监管背景 - 联邦法律要求美国科技公司向国家失踪与受虐儿童中心报告虐待材料 2023年 苹果提交了267份报告 而谷歌提交了147万份 Meta平台提交了3060万份[1] - 谷歌、微软和其他平台提供商会根据国家失踪与受虐儿童中心等机构提供的已知儿童性虐待材料标识符数据库 检查上传的照片或电子邮件附件[1] - 苹果试图依据《通信规范法》第230条驳回另一起相关集体诉讼 该法律为互联网公司就用户生成的内容提供广泛的诉讼保护[1] 技术发展与争议 - 路透社在2020年报道苹果计划为iCloud提供端到端加密 这将使数据变得执法部门无法使用 但在联邦调查局投诉这会损害调查后 苹果放弃了该计划[1] - 州政府称NeuralHash劣于其他工具且容易被规避 苹果通过iCloud存储和同步数据时没有主动的虐待材料检测 允许此类图像传播[1] - 2022年12月 苹果为iCloud数据推出了端到端加密选项[1]