West Virginia accuses Apple of allowing iCloud to become ‘greatest platform for distributing child porn'
苹果苹果(US:AAPL) New York Post·2026-02-20 01:05

诉讼核心指控 - 西弗吉尼亚州总检察长对苹果公司提起诉讼 指控其iCloud服务因公司政策成为“传播儿童色情内容的最大平台” [1][4] - 诉讼指控苹果公司将用户隐私置于儿童安全之上 并称这是政府机构首次就苹果数据存储平台上的儿童性虐待材料传播问题提起诉讼 [1] - 诉讼寻求法定和惩罚性赔偿 并要求法官强制苹果实施更有效的措施来检测有害材料并设计更安全的产品 [5][10] 苹果公司的立场与措施 - 苹果公司声明已实施功能防止儿童上传或接收裸体图像 并持续创新以应对威胁 维护对儿童最安全的平台 [4] - 苹果公司推出了“通信安全”等家长控制功能 当在Messages、共享照片、AirDrop甚至FaceTime通话中检测到裸体内容时 该功能会自动在儿童设备上干预 [4] - 苹果曾考虑扫描图像但放弃了该方法 原因是担心用户隐私和安全问题 包括可能被政府利用进行审查或逮捕 [5] - 苹果在2021年8月宣布了NeuralHash系统 旨在通过在上传前扫描用户设备上的图像来平衡儿童虐待材料检测与隐私保护 [8] - 苹果在2022年12月取消了NeuralHash的推出 同月为iCloud数据推出了端到端加密选项 [9] - 苹果未实施扫描上传至iCloud的图像 但实施了“通信安全”功能 该功能会模糊发送至或来自儿童设备的裸体和其他敏感内容 [13] 行业对比与苹果的过往做法 - 谷歌、微软等其他平台提供商会根据国家失踪与受虐儿童中心等机构提供的已知儿童性虐待材料标识符数据库 检查上传的照片或电子邮件附件 [6] - 直到2022年 苹果公司并未扫描所有上传至iCloud存储服务的文件 且数据未进行端到端加密 这意味着执法部门可通过授权令访问数据 [6][16] - 路透社2020年报道苹果计划为iCloud提供端到端加密 这将使数据变得执法部门无法使用 但在FBI投诉该计划会损害调查后 苹果放弃了该计划 [7] - 2023年 苹果提交了267份相关报告 而谷歌提交了147万份 Meta平台提交了3060万份 [14] 技术争议与法律背景 - NeuralHash系统遭到安全研究人员批评 他们担心可能导致虐待材料的错误报告 并引发了隐私倡导者的强烈反对 他们认为该系统可能被扩展用于政府监控 [8] - 西弗吉尼亚州称NeuralHash劣于其他工具且容易被规避 并指苹果通过iCloud存储和同步数据时未进行主动的有害材料检测 导致此类图像传播 [12] - 联邦法律要求美国科技公司向国家失踪与受虐儿童中心报告虐待材料 [13] - 苹果已动议驳回加州联邦法院的类似集体诉讼 称根据《通信规范法》第230条 公司可免于承担责任 该法律为互联网公司就用户生成的内容提供广泛保护 [15]