活久见!苹果和“死对头”合作,国行用户只剩羡慕
猿大侠·2026-01-23 12:12

苹果与谷歌达成AI合作协议 - 苹果与谷歌发布联合声明,达成合作协议,苹果决定常规性接入谷歌Gemini,将其作为苹果AI的“核心大脑” [2] - 这意味着未来iPhone、iPad和Mac上的AI能力,其“智力”来源很大程度上是谷歌的技术 [2] - 基于此技术,全新且更具个性化的Siri预计将在今年晚些时候推出 [2] 合作细节与Siri功能升级 - 接入的Gemini模型将负责Siri系统级的推理、个性化服务,如理解屏幕内容、跨App操作 [2] - 新Siri能进行多步骤逻辑思考,处理能力较旧版有显著提升 [2] - 举例:未来Siri能理解截图中的机票信息,主动提供设置闹钟、查询路况等服务,从“聊胜于无”的玩具变为真正的生产力工具 [2] 与OpenAI合作关系的调整 - 2024年WWDC上,苹果曾与OpenAI达成合作,ChatGPT作为Siri的“补充知识库”出现 [3] - 当Siri遇到不懂的问题时,会询问用户是否希望用ChatGPT来完成请求 [3] - 此次与谷歌深度合作后,ChatGPT似乎被“踢”到应用层,更像第三方插件或竞品功能,只在Siri处理不了或用户明确要求时被调用 [5] - 苹果方面称,与谷歌达成合作协议后,不会对现有与OpenAI的协议做出改变 [5] 选择谷歌Gemini的原因 - 苹果此前测试了谷歌Gemini、OpenAI ChatGPT、Anthropic Claude三大主流模型 [5] - 最终敲定Gemini,是因其在工程部署与成本控制上更具优势 [5] - 测试发现,Anthropic的Claude年合作成本可能超过15亿美元,而谷歌的报价和成本结构更友好 [6] - 苹果将每年向谷歌支付10亿美元作为底层技术授权费 [6] Gemini模型的技术优势 - 苹果看中的是Gemini 2.5 Pro,这是一个拥有1.2万亿参数的“巨无霸”模型 [7] - 相比之下,苹果目前自研的云端模型只有约1500亿参数 [7] - 参数量的提升将直接解决旧版Siri“听不懂人话”、无法处理复杂指令的痛点 [8] - Gemini采用“混合专家”架构,虽然总共有1.2万亿参数,但每次只激活其中一部分,在保证高智能水平的同时,极大控制了计算成本和能耗 [9] - 这种设计对处理海量用户请求的苹果意味着服务器成本可控,也更容易适配iPhone和Mac的能效限制 [9] - 苹果评估认为,谷歌的AI技术为其基础模型提供了“最强大的基础” [10] 数据隐私与安全安排 - 谷歌在与苹果的合作中同意关键条件:Gemini模型将运行在苹果自有的“私有云计算”服务器上 [11] - 所有用户数据都在苹果控制的服务器内流转,谷歌只能提供模型技术,但完全接触不到苹果用户的个人数据 [11][12] 苹果的长期AI战略 - 与谷歌合作并非意味着苹果将放弃“全栈自研” [13] - 本次非独家协议仅限于底层技术优化,而非系统层面的替代,苹果依然牢牢掌握着Siri和Apple Intelligence的控制权 [13] - Gemini模型主要在后台协助训练和优化苹果自研的模型 [13] - 苹果自己的万亿参数大模型预计要到2027年才能成熟,在此之前利用Gemini进行“强化学习”,可将自家AI模型打磨得更聪明 [13] - 谷歌Gemini可看作是苹果急需的、填补空窗期的“外援” [13] 中国市场特殊情况 - 国行苹果AI大概率与本土厂商合作,或使用特别版模型,以符合国内的监管要求 [14]

活久见!苹果和“死对头”合作,国行用户只剩羡慕 - Reportify