编辑:杜伟、泽南
今年的苹果,到底有没有新活?
北京时间今天凌晨 1 点,一年一度的「科技圈春晚」—— 苹果全球开发者大会 WWDC 在 CEO 蒂姆・库克的演讲中拉开了序幕!

此次大会,苹果宣布了一系列操作系统、服务和软件的更新,其中包括全新的系统命名规则以及名为液态玻璃( Liquid Glass)的新设计语言。
根据库克的说法,苹果对自身操作系统的命名方式(确切地说是编号方式)进行了全面改革,不再以版本号来排序,而是以年份(而且是 2026 年)来命名。
具体是这样的:今年的 iPhone 将搭载 iOS 26 系列,Mac 将搭载 macOS Tahoe 26。此外,连同 iPadOS 26、watchOS 26、tvOS 26 和 visionOS 26 一起构成了完整的系统。未来,这些数字将随年份变更,方便用户判断 Apple 设备是否运行了最新版本的软件。

iOS 26 设计界面
那么率先变更规则的 26 系列有哪些特点呢?苹果展示的一大亮点是全新的「液态玻璃」设计语言,为应用界面带来流畅的半透明和玻璃板的光泽。

该设计灵感源自 Vision Pro 增强现实设备上的 visionOS,可以自适应明暗模式,并通过实时渲染对运动做出动态响应。
全新设计将应用于按钮、滑块、媒体控件以及标签栏和侧边栏等较大的元素,同时还将采用重新设计的工具栏和导航栏。

苹果人机界面设计副总裁 Alan Dye 在发布会上表示,这是该公司自 2013 年推出 iOS 7 以来最大规模的软件设计革新。
面向第三方软件的适配,苹果正在发布更新的应用程序编程接口 (API),以便开发者能够在今年晚些时候新设计发布之前开始调整他们的应用。
新系统上的 Apple Intelligence 能做些什么?
AI 是本次发布的重中之重,被提到了演讲的第一部分进行介绍。

苹果展示了把人工智能融入其所有产品的计划,提供从通话实时翻译到 AI 识物、智能搜索等一系列能力。
随着 ChatGPT 的引入,Apple Intelligence 提升了 iPhone 端的智能体验,帮助用户比以往更轻松地完成工作,同时开启了全新的沟通方式,并利用屏幕上的内容实现更多功能。
其中,实时翻译(Live Translation)功能已集成到信息、FaceTime 和电话中,帮助用户跨语言沟通,即时翻译文本和语音。实时翻译由苹果自主研发的模型支持,这些模型完全在设备上运行,因此用户的个人对话始终保持私密。

实时语音翻译。
苹果表示,实时翻译功能将在 iPhone、Mac、Apple Watch 和 iPad 上提供,即使用户佩戴 AirPods 也能使用。
基于 Apple Intelligence,视觉智能将扩展到用户的 iPhone 屏幕,方便用户在各个 app 中搜索和操作正在浏览的内容。如果我们在手机上看到了特定衣服的图片,可以截图搜索,让 AI 找同款。
用户可以向 ChatGPT 询问他们正在屏幕上查看的内容以了解更多信息,还可以搜索 Google、Etsy 或其他支持的 app,查找类似的图片和商品。
视觉智能还能识别用户何时正在查看某个活动,并建议将其添加到日历中,并重新填充日期、时间和地点等关键信息。

识别物体并跳转到购物网站。
快捷指令(Shotcuts)现在比以往任何时候都更加强大和智能。
苹果提供了一整套由 Apple Intelligence 支持的全新快捷指令(称为智能操作),使用户可以体验写作工具( Writing Tools)和影像乐园(Image Playground)等功能的专属操作。
开发者们也可以在自己的 App 上接入这样的能力。
不过总体来说,今年 WWDC 上苹果推出的一系列 AI 能力看来是属于较为温和的改进 —— 苹果并不急于搬出一个杀手级应用,而是希望 Apple Intelligence 能够让所有涉及用户交互的工具都变得更智能、更实用。
不过增强版的 Siri 仍在跳票中。
端侧模型向第三方 App 开发者开放
既然号称「全球开发者大会」,此次苹果也为开发者们提供了一系列福利。
苹果面向开发者开放了端侧大模型的访问权限,允许任何 App 都能直接利用 Apple Intelligence 核心的端侧基础模型。

借助 Foundation Models 框架,App 开发者将能够在 Apple Intelligence 的基础上,利用免费的本地 AI 推理,为用户带来智能、离线可用且保护隐私的全新体验。
例如,教育类 App 可以使用端侧模型,根据用户的笔记生成个性化测验,无需任何云 API 成本;户外类 App 则可以添加自然语言搜索功能,即使在用户离线时也能使用。

该框架原生支持 Swift,因此 App 开发者只需三行代码即可轻松访问 Apple Intelligence 模型。同时,引导式生成、工具调用等功能均内置于框架中,让开发者能够更轻松地将生成功能直接集成到现有应用中。
在社媒 X 上,基础模型框架团队也开始推介他们的产品,表示该框架是开发者访问端侧 LLM 的 API。

为新版本 Xcode 带来更强大生成式 AI
此次,苹果发布了其应用开发套件 Xcode 的全新版本 ——Xcode 26,提供了丰富的智能功能和体验,助力开发者将创意变为现实。
利用新套件,开发者可以将大语言模型直接嵌入到他们的编程体验中,来编写代码、测试和撰写文档;同时可以实现迭代设计、修复错误等功能。
Xcode 26 内置了对 ChatGPT 的支持,开发者可以使用其他提供商的 API 密钥,或者在搭载苹果芯片的 Mac 上运行本地模型,从而选择最适合自身需求的模型。
此外,开发者无需创建帐户即可在 Xcode 中使用 ChatGPT,订阅用户也可以连接他们的帐户以访问更多请求。

编码工具(Coding Tool)可以帮助开发者保持专注,并提高工作效率。开发者可以从代码中的任何位置访问编码工具,它提供操作建议,例如生成预览或 Playground、修复问题等,还可以直接内联处理其他任务的特定提示。

另外,Xcode 26 还提供了一些附加功能,包括重新设计的导航体验、本地化目录的改进以及对语音控制的改进支持,以便通过语音控制来处理 Swift 代码并完全通过语音导航到 Xcode 界面。
鸽了的 AI 版Siri
虽然 Apple Intelligence 功能进行了一系列升级,但苹果并没有带来备受用户期待的 Siri 升级。在去年的 WWDC 大会上,更具个性化、交互更自然、由人工智能驱动的 Siri 首次亮相。
当时,苹果将其吹捧为「苹果的下一个重大举措」,并表示 Siri 将能够理解你的「个人上下文」,如你的人际关系、沟通方式、日常生活等等。此外,该语音助手将允许你在应用内部和跨应用执行操作,从而变得更加实用。

WWDC 2024。
此次大会上,苹果软件工程高级副总裁 Craig Federighi 在主题演讲中只是简短地提到了 Siri 的更新,他表示,「正如我们之前分享的,我们将继续努力,打造更个性化的功能,让 Siri 更加个性化。这项工作需要更长时间才能达到我们的高质量标准,我们期待在明年分享更多相关信息。」
显然,「明年」这个时间框架似乎表明了苹果在 2026 年之前不会发布任何消息。在新模型以及升级快速迭代的人工智能时代,Siri 无疑成为了一个重大的延迟。
此前 3 月,苹果正式宣布推迟上线 Siri 中的 AI 功能,称 Siri 更新的交付时间将比预期更长。此外,苹果还将机器学习和人工智能战略高级副总裁 John Giannandrea 从 Siri 项目中撤出,并由曾参与 Vision Pro 开发的 Mike Rockwell 负责。此次人事变动表明,在重大版本发布遭遇挫折后,苹果正努力重回正轨。
不过,种种举措也表明了苹果的人工智能技术落后于 OpenAI、谷歌和 Anthropic 等竞争对手,令投资者感到担忧。
在周一 WWDC 的演讲开始几分钟后,苹果的股价突然下跌,幅度多达 2.5%。当时苹果正在回顾 Apple Intelligence 功能,如 Genmoji、智能回复、照片清理工具等,随后话题又转到了 Siri 上。
可见人们对于苹果 AI 领域应用的进展仍不够满意。

对于今天苹果的发布,有网友表示很多新功能要么提升不大,要么近期不会上线,亦或是在国内无法使用,总体上并不令人感到惊艳。
或许 iPadOS 的桌面化、多任务能力更新是今年的最大亮点,它可能会在未来代替 MacOS。

在很多人眼里,今年是人工智能领域里,大模型技术落地关键的一年。在手机端,改变人机交互方式的生成式 AI 是否真的会出现?
(文:机器之心)