苹果Siri总想翻身:这次联手谷歌用Gemini重塑AI语音助手


苹果放弃自研大模型,采用谷歌Gemini升级Siri,依托Private Cloud Compute保障隐私,标志AI进入基础设施化阶段。

苹果牵手谷歌:Siri终于要翻身了?

苹果公司正式宣布,将采用谷歌的Gemini大模型作为其下一代“Apple Intelligence”系统的核心基础,这意味着长期被用户吐槽“智障”的Siri语音助手即将迎来一次彻底的升级。

这项合作并非简单的技术外包,而是双方在AI时代重新定义各自生态位的关键一步——苹果放弃自研前沿大模型,转而聚焦于终端体验与隐私架构;谷歌则借机将其AI能力深度植入全球最封闭也最优质的消费设备生态中。

从战略角度看,这是一次典型的“优势互补”:苹果拥有全球最强的端侧推理芯片(Neural Engine)和数亿高净值用户,却缺乏训练千亿级模型所需的算力集群与数据基础设施;谷歌则坐拥TPU超算集群、海量用户行为数据以及成熟的模型迭代体系,但始终难以突破苹果生态的高墙。

如今,二者联手,既规避了重复造轮子的巨大成本,又为用户带来了“看起来更聪明”的Siri——尽管背后运行的其实是谷歌的大脑。

为什么苹果自己不做大模型?真相远比“缺钱”复杂

很多人第一反应是:“苹果不是全球市值最高、现金流最充沛的公司吗?一年自由现金流超1000亿美元,训练个大模型能花多少钱?”这种看法看似合理,实则忽略了AI研发的本质已从“算法创新”转向“资源军备竞赛”。

当前训练一个真正具备通用能力的前沿大模型(如Gemini 3 Pro,参数量约1万亿),不仅需要数千颗H100或TPU v5芯片组成的超大规模集群,还需要配套的高速互联网络、液冷数据中心、分布式训练框架以及一支数百人的顶尖AI工程团队。

更重要的是,这场竞赛没有终点——今天发布的SOTA(State-of-the-Art)模型,半年后就可能被新架构超越。

苹果过去十年在服务器端几乎毫无布局,Xserve早已退出市场,云服务长期依赖AWS和GCP,内部AI文化也以极度保密著称,甚至曾禁止研究人员在论文署名。这种组织基因与开放协作、快速迭代的AI研发范式格格不入。即便砸下千亿美金,也未必能在人才争夺战中胜过Meta开出的3亿美元四年合约。

因此,与其陷入一场看不到尽头的烧钱游戏,不如承认现实:AI基础模型正在成为一种“大宗商品”,苹果真正的护城河在于如何将这些模型无缝、安全、高效地集成到iPhone、Mac和HomePod中,而不是自己从零开始炼丹。

“隐私剧场”还是真隐私?苹果的Private Cloud Compute到底靠不靠谱

此次合作最受关注的细节之一,是谷歌明确表示:“Apple Intelligence将继续运行在苹果设备和Private Cloud Compute上,维持苹果行业领先的隐私标准。”这句话看似官方套话,实则暗藏玄机。

所谓Private Cloud Compute(PCC),是苹果自研的一套私有云计算架构,据传基于定制化的M系列芯片搭建,部署在全球多个高安全等级数据中心。所有需云端处理的AI请求(如复杂问答、图像生成)都会被加密发送至PCC节点,在隔离环境中完成推理后立即删除上下文,绝不留存用户数据。

这意味着,即便底层模型来自谷歌,原始输入数据也不会流入Google服务器。这种设计巧妙地将“模型所有权”与“数据控制权”分离——谷歌提供智力,苹果掌控隐私。

当然,也有质疑者指出,苹果的iCloud服务本就大量跑在谷歌云(GCP)上,所谓“私有云”是否真的完全独立?但从技术可行性看,苹果完全有能力通过硬件级隔离(如Secure Enclave)、内存加密和审计日志确保PCC的独立性。对普通用户而言,只要Siri不再把“播放专辑”误解为“播放单曲”,隐私机制是否完美反而成了次要问题。

技术细节拆解:Gemini如何被“苹果化”?本地+云端双引擎协同

这次升级并非简单地把Siri后端换成Gemini API。

根据多方爆料,苹果采用了“分层推理”架构:日常轻量任务(如设闹钟、查天气、控制HomeKit)仍由设备端的小型模型(Apple自研,约30亿参数)处理,确保低延迟和离线可用;一旦用户提出复杂请求(如“总结我上周收到的所有工作邮件”或“用李白风格写一首关于春天的诗”),系统会自动触发云端推理流程。此时,请求经端侧预处理(脱敏、压缩)后,通过加密通道发往PCC节点,由基于Gemini微调的专用模型执行。

值得注意的是,这个定制版Gemini并非直接使用谷歌公开版本,而是双方联合后训练(post-training)的结果——苹果提供大量iOS/macOS特有的交互日志(如App Intents、Shortcuts行为),谷歌则贡献其RLHF(人类反馈强化学习)技术和MoE(Mixture of Experts)架构优化经验。最终产出的模型既能理解“打开设置里的蓝牙”这类系统级指令,又能保持Gemini在多模态、逻辑推理上的优势。

更关键的是,整个流程对用户透明:你只会觉得Siri突然变聪明了,而不会意识到背后是两家科技巨头在协同工作。

为什么是谷歌而不是OpenAI或Anthropic?商业逻辑压倒技术偏好

早在2024年,苹果曾高调宣布与OpenAI合作,允许用户在Siri中调用ChatGPT。但短短一年后便转向谷歌,背后原因耐人寻味。

首先,OpenAI自身稳定性堪忧——管理层动荡、财务亏损、与微软关系微妙,任何一家追求长期稳定的企业都难以将其视为核心供应商。

其次,Anthropic虽以“安全可靠”著称,但算力严重依赖AWS,且模型性能在多语言、多模态场景下略逊一筹。(Claude Cowork走出命令行进入普通办公场景!降维打击office/wps )  Anthropic的思路与苹果思路完全不同,人家是准备降维打击你苹果OS,就像你苹果OS抹去诺基亚一样。

反观谷歌,不仅拥有自研TPU和全球最庞大的搜索/地图/邮箱数据湖,还与苹果有着长达十五年的“蜜月关系”:每年支付超200亿美元让Google Search成为Safari默认引擎。

这笔巨款占苹果年利润近20%,堪称“输血式合作”。在此背景下,将Gemini引入Siri,本质上是对现有联盟的自然延伸——谷歌获得AI落地的最大入口,苹果则以极低成本补齐AI短板。至于“竞合关系”的担忧(安卓与iOS是唯二主流移动OS),在商业利益面前显得苍白无力。

正如一位评论者所言:“当你的对手每年给你200亿美金时,他就不只是对手了。”

用户能感知到什么变化?从“人工智障”到“数字管家”的跨越

对普通用户而言,这次升级最直观的感受将是Siri终于能听懂“人话”了。

过去,你说“导航去最近的Costco”,Siri可能一脸茫然;现在,得益于Gemini强大的意图识别和上下文理解能力,它不仅能准确解析模糊指令,还能主动追问细节(“您是指开市客超市吗?附近有三家,按距离排序还是评分优先?”)。

更进一步,新Siri将深度整合系统能力:你可以命令它“找出上个月老板发的关于项目延期的邮件并转发给张经理”,它会自动调用邮件搜索、联系人匹配和转发API;或者说“把这张照片里我的脸换成戴墨镜的样子”,它会结合设备端图像分割与云端生成模型完成任务。

这种“代理式交互”(Agent-style Interaction)正是Apple Intelligence的核心理念——AI不再是问答机器,而是能代表用户执行跨应用任务的智能体。

当然,这一切的前提是硬件支持:预计仅iPhone 15 Pro及以上机型、搭载M系列芯片的Mac才能完整体验新功能,老旧设备可能仅获得有限更新。这也解释了为何苹果迟迟未发布Vision Pro版Siri——本地算力仍是瓶颈。

字节「豆包手机助手」直接重构操作系统!语音操控全网购物自动下单

隐忧与挑战:依赖谷歌是否会让苹果失去灵魂?

尽管短期看是双赢,但长期风险不容忽视。最直接的问题是“供应商锁定”(Vendor Lock-in):一旦用户习惯Gemini驱动的Siri,再切换至其他模型(如Claude或自研模型)可能导致体验断层。虽然苹果声称保留了抽象层以便未来替换,但实际操作中,深度定制的后训练模型、专属提示词工程(prompt engineering)和工具调用协议(tool calling schema)都会形成隐性壁垒。

此外,谷歌是否会借机收集间接信号(如PCC节点的请求频率、错误类型)用于改进自家产品?虽然合同禁止数据回流,但技术上难以100%杜绝信息泄露。更宏观地看,此举标志着苹果从“垂直整合”向“生态协同”的战略转向——过去,从芯片到操作系统全部自研;如今,在AI这一核心赛道选择外部依赖。这究竟是务实之举,还是创新能力衰退的征兆?或许只有时间能给出答案。

但可以肯定的是,在AGI(通用人工智能)尚未到来的今天,将有限资源集中在用户体验而非底层军备竞赛,对苹果而言或许是更明智的选择。

本文基于Hacker News、CNBC及Daring Fireball等信源综合整理,聚焦技术事实与商业逻辑



极客一语道破

但是关键是AI对产品思维的降维打击,苹果 安卓的操作系统还是从传统思维走过来,现在只不过贴贴金,二次装修再次营业,而以OpenAI、Anthropic为首的新兴势力已经从AI彻底重新颠覆手机的设计。

其实,不管安卓和苹果iOS都是一丘之貉了,都可能被AI OS替代,当你还在用命令行或鼠标操作系统时,AI OS将根据你的意图完成一系列复杂技术操作,比如你说你要整理桌面,AI OS自动完成,而你操作windows或苹果iOS,首先需要找到桌面,点右键找到整理图标的命令或激活全部图标,然后一个个拖放,这些细节在以后AI OS中根据不需要你操作。