Apple×Google世纪合作:Gemini驱动新Siri,年付10亿美元改写语音助手格局
2026年1月12日,Apple与Google正式宣布达成多年期AI合作协议,将Google的Gemini 3大模型深度整合进Apple Intelligence体系,为Siri提供前所未有的智能升级。根据协议,Apple每年向Google支付约10亿美元,授权使用一个定制版1.2万亿参数Gemini模型——这比Apple此前自研云端模型的1500亿参数规模大了整整8倍。合约总价值可达50亿美元,标志着Apple在AI战略上最具里程碑意义的转向。
技术架构上,这个定制Gemini模型采用混合专家(MoE)架构,将部署在Apple自有的Private Cloud Compute(PCC)基础设施上,而非Google Cloud,从而确保用户数据不会传输至Google服务器。新一代Siri将具备屏幕感知(Screen Awareness)、对话记忆(Conversational Memory)、个人上下文理解(Personal Context)和跨应用操作(App Actions)等突破性功能,从传统语音助手进化为真正的「智能代理」。
这笔交易的战略影响深远:对Apple而言,是在自研大模型尚未达到前沿水平时加速AI能力的务实选择;对Google而言,Gemini将触达超过20亿台Apple活跃设备,成为消费级AI领域覆盖最广的系统之一。然而,该合作也引发了反垄断担忧——美国司法部已在2026年2月就Google搜索垄断案提起上诉,而这项AI合作可能构成新的「功能性排他」。
Apple×Google世纪AI合作深度解析:Gemini驱动的新Siri与10亿美元赌注
2026年1月12日,Apple和Google(母公司Alphabet)联合宣布了一项多年期AI合作协议,将Google最先进的Gemini 3大语言模型深度整合进Apple Intelligence框架。这一消息震动了整个科技界——两家曾在移动操作系统领域激烈竞争的巨头,如今在AI赛道上走到了一起。
合作背景:Siri为何跌落神坛
这场合作的根源在于Apple在生成式AI时代遭遇的系统性困境。自2023年ChatGPT引爆大模型革命以来,Siri的落后变得愈发明显。Apple内部评估显示,Siri在执行复杂查询时的失败率高达33%,这一数字在竞争对手纷纷推出强大AI助手的背景下,已经威胁到了Siri的存在价值。
2025年全年,Apple多次推迟Apple Intelligence的关键功能更新,备受期待的Siri升级也屡次跳票。面对市场上Google Assistant、微软Copilot和各类AI助手的全面围攻,Apple急需一个外部解决方案来填补技术差距,同时争取时间开发自有能力。
Apple在做出决策前评估了多家AI供应商,包括OpenAI(GPT系列)和Anthropic(Claude)。最终选择Google Gemini的关键原因在于其卓越的多模态推理能力:在ARC-AGI-2基准测试中,Gemini 3 Pro得分31.1%,几乎是GPT-5.1的17.6%的两倍;在MathArena Apex数学推理测试中,Gemini 3 Pro得分23.4%,而GPT-5.1仅为1.0%。
交易结构:双向资金流与互相依存
财务条款
根据Bloomberg记者Mark Gurman在2025年11月的报道,Apple每年向Google支付约10亿美元的授权费用,合约为非排他性多年期协议,总价值可达50亿美元。
这笔AI授权费是在Google已经每年向Apple支付约200亿美元默认搜索引擎费用之上的独立合约。这意味着Apple和Google之间的资金流动出现了「双向化」趋势:Google付费让Safari默认使用Google搜索,Apple付费使用Google的AI技术。两家公司在财务上的相互依存进一步加深,形成了一种深度绑定的利益共同体结构。
技术架构:1.2万亿参数背后的工程奇迹
定制化超大模型
Apple授权使用的是一个专为其需求定制的Gemini模型,拥有1.2万亿(1.2 trillion)参数,是Apple此前云端自研模型1500亿参数规模的8倍。该模型采用混合专家(Mixture-of-Experts, MoE)架构,每次查询仅激活部分参数,在保持高容量的同时有效控制推理成本。
三层处理架构
Apple Intelligence的处理采用三层混合架构:
- **设备端LLM**:部署在iPhone、Mac、iPad本地,处理日常基础查询,保障速度与隐私
- **Private Cloud Compute(PCC)**:Apple自有数据中心,Gemini模型运行在这一层,处理复杂任务
- **ChatGPT集成**:通过OpenAI基础设施处理特定的「世界知识」查询
这一架构的关键点在于:Gemini模型运行在Apple自己的服务器上,而非Google Cloud。用户数据在处理过程中始终处于Apple的控制范围之内,而非流向Google的基础设施。
新一代Siri的核心能力升级
搭载Gemini的新Siri预计通过iOS 26.4在2026年春季逐步推出,带来多项质的飞跃:
屏幕感知(Screen Awareness):Siri能够理解用户当前屏幕上的内容并据此行动。例如,当用户浏览餐厅网页时,可以直接说「帮我预订周五晚上8点的位置」,Siri会理解上下文并完成操作。
对话记忆(Conversational Memory):Siri拥有跨对话的长期记忆能力,不再像以前那样每次对话都从零开始,能够基于过往交流提供更个性化的回应。
个人上下文(Personal Context):Siri可以访问用户的邮件、消息、文件和照片等设备端信息,在保证隐私的前提下提供高度个性化的协助。
跨应用操作(App Actions):Siri可以通过自然语言控制第三方应用功能,成为真正意义上的全能数字助手,而非局限于系统内置应用。
隐私承诺:数据不过Google
这是此次合作中最受用户关注的议题。Apple CEO蒂姆·库克明确表示:「我们不会因Google合作而改变隐私政策。」
从技术层面看,这一承诺得到了架构保障:Gemini运行在Apple自有服务器上,用户数据不会传输至Google;PCC节点运行经过强化的操作系统,数据不会持久化存储;每次会话结束后,相关数据即被清除。这与Google Cloud上标准SaaS服务的数据处理方式存在本质区别。
反垄断阴云:历史包袱与新挑战
Google目前每年向Apple支付约200亿美元以保持Safari默认搜索引擎地位——这一安排已被联邦法官在2024年8月裁定为非法垄断行为的一部分。2026年2月,美国司法部和多个州对该裁决提起上诉,案件悬而未决。
批评者警告,新的AI合作可能构成Gemini的「功能性排他」——即使合同条款写明非独家,但当全球最大的移动生态系统与最强大的AI模型深度绑定后,其他竞争者实际上面临着极高的进入壁垒。
Apple的长期如意算盘
分析师将这次合作描述为「缓解短期压力的过渡性安排,而非长期战略转向」。Apple正在内部开发自己的1万亿参数云端模型,以期在不久的将来摆脱对外部AI的依赖。
代号「Baltra」的自研AI服务器芯片预计2026年下半期开始量产,这将为Apple自有AI模型的部署提供底层算力支撑。从这一角度看,向Google支付的10亿美元年费,更像是Apple在追赶过程中购买的「时间」——用外部能力维持竞争力,同时争取内部研发的窗口期。
这场世纪合作的最终走向,或许将在未来两三年内见分晓。
---
参考信源:
1. [Bloomberg - 10亿美元年费报道](https://bloomberg.com)
2. [TechCrunch - Google-Apple AI协议](https://techcrunch.com)
3. [CNET - Siri Gemini集成详解](https://cnet.com)
4. [AppleInsider - Tim Cook隐私声明](https://appleinsider.com)
5. [9to5Mac - DOJ反垄断上诉分析](https://9to5mac.com)