据最新报道,苹果公司已决定与谷歌展开深度合作,为即将在今年晚些时候推出的产品功能(尤其是备受关注的Siri)提供强大的人工智能支持。此次合作标志着苹果在AI领域迈出了重要一步,旨在通过整合谷歌在大型语言模型和云技术方面的优势,显著提升其产品的智能化水平。
谷歌方面将凭借其先进的Gemini模型以及强大的云端技术,为苹果未来的基础AI模型提供核心动力。苹果公司在一份声明中表示:“经过我们仔细的评估,我们认为谷歌的技术为苹果基础模型提供了最为坚实的基础,我们对其将为用户带来的创新体验充满期待。”这一表态凸显了苹果对此次合作的高度重视以及对新技术应用的信心。

据了解,苹果为了获得定制化Gemini模型的深度使用权,计划每年向谷歌支付约10亿美元的费用。其中,核心版本将是拥有1.2万亿参数的Gemini 2.5 Pro模型。苹果此举显示出其在AI能力建设上的巨大投入,并选择了当前行业内顶尖的模型技术。
这款强大的Gemini模型将承担起Siri在信息摘要、任务规划以及复杂多步指令执行等核心功能。相较于当前Siri所使用的1500亿参数云端模型,Gemini 2.5 Pro在处理能力和上下文理解深度上实现了质的飞跃。它不仅支持自然流畅的多模态交互,还能处理长达128K token的超长文本,为用户带来前所未有的智能语音助手体验。
升级后的Siri预计将在2026年春季伴随iOS 26.4系统一同推送给用户。随后,在2026年6月举行的WWDC(全球开发者大会)上,苹果还会预览iOS 27、macOS 27等新系统,并在其中进一步整合这一AI能力,将其应用范围扩展到更多苹果设备和场景。

在做出最终选择之前,苹果曾对谷歌Gemini、OpenAI的ChatGPT以及Anthropic的Claude等业界主流AI模型进行了细致的测试和评估。最终之所以选择谷歌,主要有以下几个关键原因:首先,在财务成本方面,与谷歌的合作更为经济高效;其次,苹果与谷歌之间拥有长期且稳固的合作基础,这为双方的未来协同奠定了良好铺垫;最后,Gemini 2.5 Pro在当前的各项大型语言模型性能排行榜中均表现卓越,其技术实力得到了广泛认可。
Gemini模型采用了先进的混合专家(Mixture-of-Experts, MoE)架构。尽管其总参数量超过万亿,但在实际查询过程中,它只会激活部分参数,从而在保证强大性能的同时,显著降低了计算成本和能耗。这种设计使得Gemini能够高效运行,并更好地适配iPhone、Mac等多种终端设备的使用场景,为苹果设备带来更流畅、更智能的AI体验。

值得注意的是,谷歌为苹果开发的AI模型将运行在苹果自有的私有云计算服务器上。这意味着谷歌无法直接访问苹果用户的任何数据,从而有效消除了用户对于数据泄露的担忧,极大地增强了用户对隐私安全的信心。苹果在AI领域的合作选择,始终将用户数据安全放在首位。
此外,苹果当前的用户交互和服务架构将采用一种混合模式。谷歌的Gemini模型将主要负责处理复杂的云端任务,例如网页内容的智能摘要、跨应用的多任务协同调度等。而苹果自主研发的模型则将继续专注于处理设备端的用户个人数据,例如健康信息、本地文件交互等。这种“云端+本地”的分层协作模式,不仅能够显著提升Siri的智能化水平和响应速度,还能确保苹果对核心用户数据的绝对控制权,实现了AI能力与隐私保护的双赢。