前两天我对着iPhone喊:“Siri,帮我查一下Gemini加持的Siri什么时候发”,这货居然给我播了一段歌,我当场就笑喷了。
不是,苹果你自己也知道Siri现在有多拉胯是吧。

谷歌官宣,板上钉钉
4月22日,Google Cloud Next 26大会。谷歌云CEO托马斯·库里安站在台上,一句话把所有人的注意力拉满:基于Gemini技术构建的苹果新一代Siri,2026年发布。
不是“可能”,不是“据传”。是谷歌CEO级别的人物,在官方大会上公开确认。

我琢磨这事儿其实早有铺垫。今年1月,苹果和谷歌签了份多年期协议,谷歌成了苹果的首选云服务商。每年10亿美元,买的东西说穿了就一个:把Gemini塞进Siri。
10亿美元买了什么
苹果的脾气大家懂,隐私是命根子。所以协议卡得很死:所有数据处理都在苹果自己的服务器上跑,谷歌碰不到用户数据。
翻译成人话就是,内核是谷歌的,外壳是苹果的。谁也甭想绕过苹果偷数据,包括谷歌自己。
技术路线上,苹果玩得更聪明。他们不是直接把Gemini当云端API调,而是搞知识蒸馏,把大模型Gemini的知识压缩成小模型,塞进iPhone本地跑。今年3月已经搞定了,测试效果不错。
这招很苹果。既保住了隐私牌坊,又不用被谷歌卡脖子,还能让Siri在没网的时候也能用。一石三鸟。

WWDC海报藏了多少信息
彭博社的古尔曼盯着WWDC26海报研究了半天,得出一个结论:海报那个光晕效果,就是在暗示新Siri的UI形态。
根据他的解读,新Siri会集成在灵动岛上。唤醒时界面扩展成胶囊形状,带发光效果,搜索框上写着“Search or Ask”。长得像ChatGPT,但你是在iPhone原生系统里用,不是打开一个App。
功能上更是脱胎换骨:
- 多指令处理:你说“帮我查航班顺便订酒店顺便叫个车”,它一口气全搞定
- 第三方AI智能体接入:ChatGPT、Claude都能挂进来用
- 上下文感知:它能知道你屏幕上看的是什么,跟你聊当前的内容
- 独立应用:不用对着空气喊了,打开App就能打字聊天
说真的,光看这描述,跟现在这个连闹钟都设不明白的智障Siri比,根本不是一个物种了。
背后的人事地震
但这事不是一帆风顺。苹果AI团队最近动荡得厉害。
前AI主管吉安南德雷亚,4月初跑路去了英国一家叫CuspAI的初创公司。接手Siri改造的洛克威尔,就是当年做Vision Pro的那位大神,彭博社说他也考虑走人。

你品品这局面:
Siri是苹果史上最丢人的产品之一。
十几年前就推出了,到现在被ChatGPT按在地上摩擦。
好不容易抱上谷歌大腿,核心人员一个接一个走。
老大让Vision Pro的功臣来擦屁股,人家还不乐意。
这画面,怎么说呢。一个十五年的老产品,用户对它唯一的期待就是“别太傻”,而苹果给的回答是“我们请谷歌来帮忙”。
真能翻身吗
我的判断是:WWDC26上的新Siri,能让人眼前一亮的东西肯定有。但能不能直接刚ChatGPT?悬。
Gemini本身确实强,谷歌的底子摆在那。但苹果的作风是把所有东西包装成“苹果味”再端出来,这个过程一定会被阉割掉一些“不安全”“不够优雅”的功能。再加上今年底才发布,等到时候ChatGPT进化到第几代都不知道了。
而且别忘了,新Siri大概率先上英文。中文用户什么时候能用到?没人敢打包票。苹果做AI的节奏向来慢半拍,指望它一夜翻身不现实。
但反过来说,Gemini加持Siri这件事真正的意义,不止是技术层面。它标志着AI助手从极客玩具变成全民标配。你爸妈的手机里,也会有一个真正能聊的AI了。这才是最大的看点。

一点建议
如果你今年打算在iPhone上用上好用的AI助手,最实际的建议是:别等Siri了。直接装个DeepSeek(刚更新的V4版本确实很强)或者元宝/豆包 App,体验已经相当成熟。
新Siri年底才出,中文版什么时候能上更是未知数。苹果的“即将发布”可能比你想的久得多。
但换个角度想,苹果的进场意味着AI助手不再是少数人的尝鲜玩具。几亿台iPhone一夜升级,这个量级带来的变化才是真正值得关注的。你不一定要用Siri,但你身边的所有人都会开始用AI助手了。
这波浪潮比你想得快,也比你想得大。想了解更多AI技术动向,不妨在云栈社区和众多开发者一起交流看法。