上周,苹果正式宣布将借助谷歌的力量,为iPhone带来最早今年就能用上的全新Apple Intelligence功能。下面一览即将登场的新特性。
iPhone即将迎来这些全新功能
虽然苹果尚未正式确认哪些Apple Intelligence和Siri功能会使用谷歌Gemini模型,但根据可靠传闻,我们已经掌握了以下信息。
据The Information报道,多项Siri新功能将由Gemini模型提供支持。报告指出,iPhone用户将迎来彻底升级版的Siri,它将具备以下能力:
- 当用户说“感到孤独或沮丧”时,提供更优质的情感支持。
- 给出更精准的世界知识和事实回答,并采用类似ChatGPT与Gemini的“对话式回答”风格。
- 执行任务,例如在Apple Notes中自动创建关于特定主题的文档。
- 处理更私人的事务,比如帮你预订旅行行程。
- 更好地应对Siri没听清或理解错误的用户问题/请求。
- 讲故事给用户听。
报道还提到了将在6月WWDC大会公布、属于iOS 27的Siri新功能:
- 能够记住之前的对话内容。
- 主动智能功能,例如建议什么时候出发去机场接朋友才能避开堵车。
Google Gemini模型还将驱动苹果在2023年WWDC首次公布的Apple Intelligence功能。这些功能原计划随iOS 18推出,但后来被延期。
- 个人上下文:Siri会利用你设备上的信息帮你快速找到想要的内容,比如定位某条短信或邮件。
- 屏幕感知能力:Siri能针对你屏幕上显示的内容直接采取行动。
- 应用内操作:可以直接向特定App发出指令执行操作。
据报道,首批基于Gemini的iPhone功能正按计划随iOS 26.4版本推出,该版本将于下个月进入公测阶段。
















