Apple 于 7 月 30 日向开发者推送了 iOS 18.1、iPadOS 18.1 和 macOS Sequoia 15.1 的首个测试版,正式启动 Apple Intelligence 功能的首轮测试。
这些测试版仅面向支持 Apple Intelligence 的设备推送,包括非中国大陆和欧盟销售的 iPhone 15 Pro 和 iPhone 15 Pro Max, 以及搭载 M1 及更高版本芯片的 iPad 和 Mac 设备。目前开放的功能包括:全新 Siri 界面、通话录音、智能改写、邮件摘要和智能回复等。值得注意的是,ChatGPT 集成等部分功能尚未开放。
通话录音功能可在通话界面左上角点击录音按钮启用,系统会用 AI 语音提示「正在录音」。录音完成后将保存在「备忘录」应用中,并可生成摘要。
此次更新还新增了「减少打扰」专注模式,利用 Apple Intelligence 过滤不重要的通知。然而,由于中国大陆设备暂不支持 Apple Intelligence, 该功能也无法使用。
除通话录音外,Apple Intelligence 目前对中国大陆和欧盟销售的设备不可用,这是一种硬件级锁定,无论设备位于何处都无法启用。但香港、澳门和英国用户不受此限制。
开发者需要在设备的「设置」应用中加入 Apple Intelligence 候补名单,可能还需要将系统地区设置为美国。Apple 表示,正式版 Apple Intelligence 功能预计将于今年秋季推出,但初期仍将处于测试阶段。值得注意的是,Apple Intelligence 不会包含在今年 9 月发布的 iOS 18 正式版中,而是计划在之后的 iOS 18.1 更新中推出。
同时,Apple 发布了一份详细的 技术报告 ,首次披露了 Apple Intelligence 背后的基础模型架构和训练过程。
根据技术报告,Apple Intelligence 由两个主要模型组成:一个约 30 亿参数的设备端模型(AFM-on-device, Apple Foundation Models on device)和一个更大的服务器端模型(AFM-server)。这些模型采用了创新的架构设计,包括共享输入/输出嵌入矩阵、预归一化、查询/键归一化等技术,以提高模型效率和稳定性。
Apple 强调了其在负责任 AI 开发方面的努力。公司制定了全面的安全分类法,涵盖 12 个主要类别和 51 个子类别,用于评估潜在风险。在训练数据方面,Apple 严格筛选,不使用用户私人数据,并采取措施排除潜在有害内容。
为了提高模型性能和效率,Apple 采用了 LoRA (Low-Rank Adaptation) 适配器技术和创新的量化方法。这些技术使得 AFM-on-device 模型能够在保持高性能的同时,将参数压缩到平均每权重不到 4 位。
在人类评估中,AFM 模型在多项任务上表现出色。例如,AFM-on-device 在指令遵循能力上优于 Phi-3-mini、Gemma-7B 等模型,而 AFM-server 在功能调用基准测试中超越了 Gemini-1.5-Pro 和 GPT-4。
(MacRumors、9to5Mac、CNBeta、蓝点网)