2026 年 1 月 12 日,Apple 与 Google 联合官宣了一项多年期合作:下一代 Apple Foundation Models 将基于 Google Gemini 模型和云技术构建,为 Apple Intelligence 和新一代 Siri 提供动力。[1] 据媒体报道,Apple 每年为此支付约 $10 亿授权费,获得一个据称 1.2 万亿参数的定制 Gemini 模型——据报道比 Apple 此前的云端模型大约 8 倍。[3]
据报道,新 Siri 的首批功能预计随 iOS 26.4/26.5 上线,包括屏幕感知(理解当前屏幕内容)、跨应用集成(跨 Mail/Messages/Calendar 等 App 执行任务)和个人上下文(记住对话历史和用户偏好)。从用户角度看,这仍然是 Siri——只是变得更聪明了。[2]
升级概览:$10 亿换来了什么
从合作架构到落地时间线
Apple 与 Google 的联合声明措辞谨慎但信息量巨大:"下一代 Apple Foundation Models 将基于 Google 的 Gemini 模型和云技术"。这意味着 Apple 放弃了独立追赶 GPT-4/Claude 级别大模型的路线,转而选择"白标"集成 Google 的顶级模型。[1]
合作协议的关键约束:Gemini 的角色将被"白标化"——用户界面中不会出现 Google 品牌,一切交互仍以 Siri 的名义进行。Apple 保留了对用户体验的完全控制权。[4]
核心能力:屏幕感知 + 跨应用集成
Siri 从"语音助手"进化为"上下文感知 Agent"
新 Siri 最大的变化不是回答问题更准确——而是它终于能理解你正在做什么。屏幕感知(On-Screen Awareness)让 Siri 可以读取当前屏幕内容,跨应用集成让它可以在多个 App 之间执行复杂任务。[2]
- 屏幕感知(On-Screen Awareness)Siri 可以理解当前屏幕上的内容——不论是一条短信、一封邮件、一张照片还是一个网页。用户可以指着屏幕上的内容说"把这个发给妈妈",Siri 就能理解"这个"指什么。[2]
- 跨应用集成(Cross-App Actions)Apple 演示了一个典型场景:用户问 Siri "我妈妈的航班什么时候到",Siri 从 Mail 中找到航班确认邮件,结合 Messages 中的聊天记录,给出完整答案并建议午餐预订。[2]
- 个人上下文(Personal Context)新 Siri 可以追踪之前的对话内容,理解用户偏好和习惯。这是从"一问一答"到"持续助手"的关键跃迁,但所有个人数据处理都在设备端或 PCC 中完成。[6]