根据最新报道,iOS 27将为用户提供一种新的方式来接入第三方AI平台。这意味着iPhone用户可以从Google、Anthropic等公司的多个第三方模型中挑选,还能根据当前响应的外部模型,为Siri设置不同的自定义声音。
iOS 27与AI应用的集成
据Blomberg报道,苹果在iOS 27中把这项新功能称为“Extensions”。在iOS 27的测试版本里,苹果解释说,Extensions“允许你通过Apple Intelligence的Siri、写作工具、Image Playground等功能,按需调用已安装应用里的生成式AI能力。”
报道中提到:
苹果公司将让用户选择各种外部人工智能服务来驱动软件里的各项功能,进一步把自己的设备打造成一个完整的AI平台。
知情人士透露,用户将能为生成和编辑文本、图像等任务挑选不同的第三方AI模型。这一变化计划在今年秋季的iOS 27、iPadOS 27和macOS 27中推出。这些人士因计划尚未公开而要求匿名。
用户可以通过App Store里的应用来启用对应的AI模型支持。比如,Google和Anthropic可以分别在Gemini和Claude App中加入对这个Extensions系统的支持,然后用户就能选择用这些模型来驱动Siri、写作工具等功能。
这是在苹果与Google合作、用Gemini驱动原生Siri和Apple Intelligence功能之外的额外选项。今天这份报道也延续了彭博三月份的另一篇内容,当时已经讲过Extensions系统如何与Siri本身配合。而今天的新信息是,这套系统将如何扩展到语音助手之外的更多Apple Intelligence功能上。
苹果曾在iOS 18中加入ChatGPT集成,把它作为Siri处理世界知识查询时的备用选项。ChatGPT也能在Image Playground等功能里使用。
说到Siri,今天的报道还提到,iOS 27会允许用户为每个AI模型选择不同的声音:
另一项改进是,用户可以为由外部模型驱动的Siri对话选择不同的声音。由苹果自家系统处理的查询可能用一种声音,而第三方模型——比如Anthropic的Claude——的回答则可以用另一种声音。















