Apple Faces a Tough Task in Keeping AI Data Secure and Private
苹果苹果(US:AAPL) CNET·2024-06-21 21:01

苹果公司AI战略与隐私安全定位 - 公司推出“Apple Intelligence” 旨在为AI隐私和安全设定新标准 尽管计划将OpenAI的ChatGPT无缝集成到其产品和软件中 [1] - 公司长期专注于最小化数据收集 并强调不以此牟利 这使其在缺乏监管和行业标准的“丛林”中脱颖而出 [2] - 与依赖收集、共享和销售用户数据给经纪商和广告商等方的Meta和Google等公司形成对比 [2] AI技术带来的隐私与安全挑战 - 大型语言模型和机器学习等AI工具带来巨大进步潜力 但也伴随着重大的隐私和保密问题 [3] - 将数据输入ChatGPT等LLM后 难以知晓或控制数据的去向 即使输入数据被立即销毁 模型从中学习到的知识仍会保留 [3] - AI的设计改变了传统安全范式 LLM需要数据来训练和变得更强大 且部分AI操作无法在标准手机和笔记本电脑上完成 [4] 苹果的隐私保护技术方案 - 传统上 公司通过将收集的数据限制在软件或设备运行所需的最低限度 并将敏感数据处理保留在设备端来保护数据安全 [4] - 为应对AI需求 公司承诺尽可能在设备上进行AI处理 无法在设备完成的任务将发送至其“私有云计算”系统 该系统提供更强处理能力并能访问更大的AI模型 [5] - 发送至私有云的数据不会被存储 苹果也无法访问 独立专家可检查服务器上运行的代码以验证其承诺 [5] 安全专家对苹果AI方案的评估与担忧 - 专家认为公司的AI隐私安全承诺是“朝着正确方向迈出的一步” 但公司仍面临艰巨任务 并可能成为新的攻击目标 [1][2] - 专家不怀疑公司将尽力履行承诺 并指出其私有云在规模上具有更容易发现异常和阻止潜在安全威胁的优势 [6] - 关键挑战在于公司能否建立控制措施 防止攻击者利用AI对其连接的应用程序进行超出预期的操作 专家预测将开始出现出于恶意目的劫持AI模型使用的案例 [6] 潜在风险与未来关注点 - 专家担心公司不借助外部公司来保护其云安全 自行构建安全体系可能存在盲点 外部视角对于在攻击者之前发现漏洞至关重要 [7] - 网络犯罪分子正越来越多地用恶意软件攻击iOS系统 公司的封闭系统模型并不能保证将其阻挡在外 这比其与ChatGPT的连接更令人担忧 [7] - 法律或成本问题最终可能促使公司开始调整隐私实践 这可能使其滑向修改服务条款 允许使用消费者数据训练下一代AI的境地 专家正密切关注其条款条件 特别是与OpenAI等第三方合作的数据共享实践的变化 [8]