今年的苹果,到底有没有新活?
北京时间今天凌晨 1 点,一年一度的「科技圈春晚」—— 苹果全球开发者大会 WWDC 在 CEO 蒂姆・库克的演讲中拉开了序幕。

此次大会,苹果宣布了一系列操作系统、服务和软件的更新,其中包括全新的系统命名规则以及名为液态玻璃( Liquid Glass)的新设计语言。
根据库克的说法,苹果对自身操作系统的命名方式(确切地说是编号方式)进行了全面改革,不再以版本号来排序,而是以年份(2026年)来命名。具体来说,今年的 iPhone 将搭载 iOS 26 系列,Mac 将搭载 macOS Tahoe 26。此外,iPadOS 26、watchOS 26、tvOS 26 和 visionOS 26 也构成了完整的系统。未来,这些数字将随年份变更,方便用户判断 Apple 设备是否运行了最新版本的软件。

iOS 26 设计界面
那么率先变更规则的 26 系列有哪些特点呢?苹果展示的一大亮点是全新的「液态玻璃」设计语言,为应用界面带来流畅的半透明和玻璃板的光泽。该设计灵感源自 Vision Pro 增强现实设备上的 visionOS,可以自适应明暗模式,并通过实时渲染对运动做出动态响应。

全新设计将应用于按钮、滑块、媒体控件以及标签栏和侧边栏等较大的元素,同时还将采用重新设计的工具栏和导航栏。苹果人机界面设计副总裁 Alan Dye 在发布会上表示,这是该公司自 2013 年推出 iOS 7 以来最大规模的软件设计革新。
新系统上的 Apple Intelligence 能做些什么?
AI 是本次发布的重中之重,被提到了演讲的第一部分进行介绍。苹果展示了把人工智能融入其所有产品的计划,提供从通话实时翻译到 AI 识物、智能搜索等一系列能力。

其中,实时翻译(Live Translation)功能已集成到信息、FaceTime 和电话中,帮助用户跨语言沟通,即时翻译文本和语音。实时翻译由苹果自主研发的模型支持,这些模型完全在设备上运行,因此用户的个人对话始终保持私密。

实时语音翻译。
苹果表示,实时翻译功能将在 iPhone、Mac、Apple Watch 和 iPad 上提供,即使用户佩戴 AirPods 也能使用。
基于 Apple Intelligence,视觉智能将扩展到用户的 iPhone 屏幕,方便用户在各个 app 中搜索和操作正在浏览的内容。如果我们在手机上看到了特定衣服的图片,可以截图搜索,让 AI 找同款。用户可以向 ChatGPT 询问他们正在屏幕上查看的内容以了解更多信息,还可以搜索 Google、Etsy 或其他支持的 app,查找类似的图片和商品。视觉智能还能识别用户何时正在查看某个活动,并建议将其添加到日历中,并重新填充日期、时间和地点等关键信息。

识别物体并跳转到购物网站。
此外,快捷指令(Shotcuts)现在比以往任何时候都更加强大和智能。苹果提供了一整套由 Apple Intelligence 支持的全新快捷指令(称为智能操作),使用户可以体验写作工具( Writing Tools)和影像乐园(Image Playground)等功能的专属操作。开发者们也可以在自己的 App 上接入这样的能力。
不过,总体来说,今年 WWDC 上苹果推出的一系列 AI 能力看来是属于较为温和的改进 —— 苹果并不急于搬出一个杀手级应用,而是希望 Apple Intelligence 能够让所有涉及用户交互的工具都变得更智能、更实用。
端侧模型向第三方 App 开发者开放
既然号称「全球开发者大会」,此次苹果也为开发者们提供了一系列福利。苹果面向开发者开放了端侧大模型的访问权限,允许任何 App 都能直接利用 Apple Intelligence 核心的端侧基础模型。通过 Foundation Models 框架,App 开发者将能够在 Apple Intelligence 的基础上,利用免费的本地 AI 推理,为用户带来智能、离线可用且保护隐私的全新体验。

例如,教育类 App 可以使用端侧模型,根据用户的笔记生成个性化测验,无需任何云 API 成本;户外类 App 则可以添加自然语言搜索功能,即使在用户离线时也能使用。该框架原生支持 Swift,因此App 开发者只需三行代码即可轻松访问 Apple Intelligence 模型。同时,引导式生成、工具调用等功能均内置于框架中,让开发者能够更轻松地将生成功能直接集成到现有应用中。


为新版本 Xcode 带来更强大生成式 AI
此次,苹果发布了其应用开发套件 Xcode 的全新版本 ——Xcode 26,提供了丰富的智能功能和体验,助力开发者将创意变为现实。利用新套件,开发者可以将大语言模型直接嵌入到他们的编程体验中,来编写代码、测试和撰写文档;同时可以实现迭代设计、修复错误等功能。Xcode 26 内置了对 ChatGPT 的支持,开发者可以使用其他提供商的 API 密钥,或者在搭载苹果芯片的 Mac 上运行本地模型,从而选择最适合自身需求的模型。
此外,开发者无需创建帐户即可在 Xcode 中使用 ChatGPT,订阅用户也可以连接他们的帐户以访问更多请求。

编码工具(Coding Tool)可以帮助开发者保持专注,并提高工作效率。开发者可以从代码中的任何位置访问编码工具,它提供操作建议,例如生成预览或 Playground、修复问题等,还可以直接内联处理其他任务的特定提示。此外,Xcode 26 还提供了一些附加功能,包括重新设计的导航体验、本地化目录的改进以及对语音控制的改进支持,以便通过语音控制来处理 Swift 代码并完全通过语音导航到 Xcode 界面。

鸽了的 AI 版 Siri
虽然 Apple Intelligence 功能进行了一系列升级,但苹果并没有带来备受用户期待的 Siri 升级。在去年的 WWDC 大会上,更具个性化、交互更自然、由人工智能驱动的 Siri 首次亮相。当时,苹果将其吹捧为「苹果的下一个重大举措」,并表示 Siri 将能够理解用户的「个人上下文」,如人际关系、沟通方式、日常生活等。此外,该语音助手将允许用户在应用内部和跨应用执行操作,从而变得更加实用。

WWDC 2024。
此次大会上,苹果软件工程高级副总裁 Craig Federighi 在主题演讲中只是简短地提到了 Siri 的更新,他表示,「正如我们之前分享的,我们将继续努力,打造更个性化的功能,让 Siri 更加个性化。这项工作需要更长时间才能达到我们的高质量标准,我们期待在明年分享更多相关信息。」
显然,「明年」这个时间框架似乎表明了苹果在 2026 年之前不会发布任何消息。在新模型以及快速迭代的人工智能时代,Siri 无疑成为了一个重大的延迟。此前 3 月,苹果正式宣布推迟上线 Siri 中的 AI 功能,称 Siri 更新的交付时间将比预期更长。此外,苹果还将机器学习和人工智能战略高级副总裁 John Giannandrea 从 Siri 项目中撤出,并由曾参与 Vision Pro 开发的 Mike Rockwell 负责。此次人事变动表明,在重大版本发布遭遇挫折后,苹果正努力重回正轨。
不过,种种举措也表明了苹果的人工智能技术在某种程度上落后于 OpenAI、谷歌和 Anthropic 等竞争对手,令投资者感到担忧。在周一 WWDC 的演讲开始几分钟后,苹果的股价突然下跌,幅度多达 2.5%。当时苹果正在回顾 Apple Intelligence 功能,如 Genmoji、智能回复、照片清理工具等,随后话题又转到了 Siri 上。可见人们对于苹果 AI 领域应用的进展仍不够满意。

对于今天苹果的发布,有网友表示很多新功能要么提升不大,要么近期不会上线,亦或是在国内无法使用,总体上并不令人感到惊艳。或许 iPadOS 的桌面化、多任务能力更新是今年的最大亮点,它可能会在未来替代 MacOS。

在很多人眼里,今年是人工智能领域里,大模型技术落地关键的一年。在手机端,改变人机交互方式的生成式 AI 是否真的会出现?
参考链接:
https://www.apple.com/newsroom/2025/06/apple-elevates-the-iphone-experience-with-ios-26/
Still no AI-powered, ‘more personalized’ Siri from Apple at WWDC 25
https://www.apple.com/newsroom/2025/06/apple-supercharges-its-tools-and-technologies-for-developers/