在生成式人工智能领域,苹果的发展之路可谓波折不断。
11月6日消息,据彭博社的马克・古尔曼称,苹果计划引入谷歌Gemini大模型来提供技术支撑,以此让新版本的Siri变得更加智能强大。

图源:X
苹果计划每年向谷歌支付大约10亿美元,以此获得定制化Gemini模型的使用授权,其中核心采用的版本是拥有1.2万亿参数的Gemini 2.5 Pro。
苹果这样做的目的是,为了全面增强Siri处理复杂任务的能力。长期以来苹果方面因Siri“不够智能”而遭用户频频吐槽。
有意思的是,谷歌作为Safari浏览器的默认搜索引擎,因而谷歌现在每年要向苹果支付约200亿美元。但现在苹果引入谷歌Gemini大模型后,苹果也要向谷歌支付年费。
达成合作后,Gemini大模型将承担起Siri在信息摘要整理、任务规划安排以及复杂多步指令执行等核心功能方面的运作。
与当前Siri所采用的拥有1500亿参数的云端模型相比,1.2万亿参数的Gemini大模型在处理能力以及上下文理解深度上实现了数量级的显著提升。
部署时间方面,升级版Siri预计会在2026年春季,跟随iOS 26.4系统一同推送至用户设备。后续在2026年6月WWDC大会上预览亮相的iOS 27、macOS 27等系统里,也将进一步深度整合这一升级后的Siri。

图源:Apple
为什么会选择Gemini?
苹果之前对ChatGPT、Claude以及Gemini这三大主流模型进行了测试,最终选定谷歌的Gemini作为合作伙伴。
选择Gemini的核心因素主要有以下几点:
首先,财务成本更具优势。Anthropic Claude的年合作成本超过15亿美元,比Gemini要高。(前文提到与谷歌合作成本大约10亿美元)
其次,苹果与谷歌之间有着长期的合作基础。Safari浏览器的默认搜索引擎是Google。
最后,谷歌Gemini 2.5 Pro在WebDev Arena排行榜中位居前列。
关于安全性方面,苹果也是考虑周到。
谷歌为苹果打造的AI模型,会部署在苹果自有的私有云计算服务器环境中运行。也就是说,谷歌方面无法接触到苹果用户的任何数据。
此外苹果目前的系统架构运用了混合模式。谷歌的Gemini模型主要负责处理复杂的云端任务,像网页搜索内容的摘要整理、多应用之间的跨端任务调度等。

图源:Google
而苹果自研的模型则持续专注于设备端个人数据的处理,例如健康信息管理、本地文件的交互操作等。
这种“云端+本地”的分层协作模式,既能够显著提升Siri的智能水平,又能让苹果牢牢掌握核心数据的控制权。
不过在小雷看来,苹果或许并不打算将Gemini作为长久的解决方案。
据知情人士透露,虽然苹果公司目前正面临人工智能领域人才流失的问题,但公司管理层仍计划持续投入新人工智能技术的研发,并且期望在未来能用自家的内部方案来替代Gemini。
苹果公司的模型团队正着力研发一个拥有1万亿参数的云端模型。苹果的高管们认为,这个新模型能够达到与定制版Gemini相媲美的质量水准。
但小雷认为,目前谷歌的Gemini 2.5 Pro在绝大多数大型语言模型排行榜上占据领先位置,苹果想要追赶并非易事。
但对苹果而言,引入谷歌Gemini大模型这一举动,意味着苹果承认自身在人工智能领域已处于落后状态,如今愿意借助外部技术来努力追赶、缩小差距。
说到最后,你怎么看待苹果在AI方面的成绩?或者说为什么苹果做不好AI?欢迎在评论区留言说说你的看法。