随着苹果公司不断发布关于人工智能技术的研究成果,显然它在这一领域的投入十分巨大。苹果计划在 6 月的全球开发者大会(WWDC)上公布其人工智能策略,这也将标志着 iOS 18 及其他新操作系统版本的推出。
在最新一期的 Power On 新闻简报中,Mark Gurman 提到,新一代 iPhone 的人工智能功能将由苹果自行开发的、设备本地化的、庞大的语言模型(LLM)来驱动。预计苹果会重点展现这种做法所带来的隐私和速度上的优势。
媒体曾在 iOS 17.4 中找到代码,其中提到了一个名为 “Ajax”的设备本地模型。而苹果也在开发 Ajax 的服务器托管版本。
设备本地 LLM 的一个局限是,它们不可能像部署在大型服务器群并拥有数以百亿计参数的、持续更新数据的模型那样强大。
然而,苹果工程师可能通过利用其平台的全栈垂直整合优势以及为苹果芯片优化的软件,最大化设备本地化做法的潜力。这种在设备上直接处理请求的模型,通常能提供更快的响应速度,并且还能在没有网络或网络受限的情况下离线工作。
虽然设备本地 LLM 可能无法像嵌入了丰富知识库的 ChatGPT 那样回答广泛的随机问题,但它们在执行许多任务上却显示出了足够的能力。举例来说,基于设备的 LLM 能够为信息生成复杂的自动化回复,或者改善对常见 Siri 请求的处理。
这种做法也恰好符合苹果公司的隐私保护原则。通过设备内模型处理所有下载的电子邮件和短信是安全的,因为数据始终保持本地化。
设备本地模型还可以根据提示完成文档或图像创作等生成性 AI 任务,并取得相当理想的结果。苹果还保留了灵活性,可以与谷歌等公司合作,通过服务器上的服务例如 Gemini 来弥补某些任务的不足。
随着苹果在 WWDC 上正式揭晓其人工智能战略,我们将能够具体了解其详细计划。该活动主旨发表将于 6 月 10 日开始,届时苹果将公布 iPhone、iPad、Mac、Apple Watch、Apple TV、Vision Pro 等所有新软件功能。