NeuralHash
搜索文档
West Virginia says it has sued Apple over iCloud's alleged role in distribution of child sex abuse material
Reuters· 2026-02-19 23:03
核心诉讼与指控 - 西弗吉尼亚州总检察长对苹果公司提起诉讼 指控其iCloud服务成为内部通信中所描述的“传播儿童色情内容的最大平台” 并指责公司将用户隐私置于儿童安全之上[1] - 该诉讼是政府机构首次就苹果数据存储平台上传播儿童性虐待材料提起的此类案件 诉讼寻求法定和惩罚性赔偿 并要求法官强制苹果实施更有效的检测措施和更安全的产品设计[1] - 诉讼引用了苹果时任反欺诈负责人在2020年的一条短信 其中指出由于苹果的优先事项 它成为了“传播儿童色情内容的最大平台”[1] 苹果的应对措施与立场 - 苹果公司声明已实施功能防止儿童上传或接收裸体图像 并“每天都在创新以应对不断演变的威胁 为儿童维持最安全、最受信任的平台”[1] - 公司表示其行业领先的家长控制功能 如“通信安全” 在检测到信息、共享照片、隔空投送甚至实时FaceTime通话中出现裸体内容时会自动干预 这些功能的核心是用户的安全、安保和隐私[1] - 苹果曾考虑扫描图像 但因对用户隐私和安全的担忧而放弃了该方法 包括担心可能被寻求其他材料以进行审查或逮捕的政府所利用[1] - 苹果未对所有上传至iCloud存储服务的文件进行扫描 且数据未进行端到端加密 这意味着执法部门可通过授权令访问[1] - 2021年8月 苹果宣布了NeuralHash系统 旨在通过在上传前扫描用户设备上的图像来平衡儿童虐待材料的检测与隐私 但该系统在2022年12月被取消[1] - 苹果未实施上传至iCloud的图像扫描 但实施了名为“通信安全”的功能 可模糊发送至或来自儿童设备的裸体和其他敏感内容[1] 行业对比与监管背景 - 联邦法律要求美国科技公司向国家失踪与受虐儿童中心报告虐待材料 2023年 苹果提交了267份报告 而谷歌提交了147万份 Meta平台提交了3060万份[1] - 谷歌、微软和其他平台提供商会根据国家失踪与受虐儿童中心等机构提供的已知儿童性虐待材料标识符数据库 检查上传的照片或电子邮件附件[1] - 苹果试图依据《通信规范法》第230条驳回另一起相关集体诉讼 该法律为互联网公司就用户生成的内容提供广泛的诉讼保护[1] 技术发展与争议 - 路透社在2020年报道苹果计划为iCloud提供端到端加密 这将使数据变得执法部门无法使用 但在联邦调查局投诉这会损害调查后 苹果放弃了该计划[1] - 州政府称NeuralHash劣于其他工具且容易被规避 苹果通过iCloud存储和同步数据时没有主动的虐待材料检测 允许此类图像传播[1] - 2022年12月 苹果为iCloud数据推出了端到端加密选项[1]