本月初,苹果和谷歌正式宣布达成合作。苹果长期以来在自研模型上进展缓慢,如今将借助谷歌Gemini模型为未来的Apple Intelligence功能提供动力,并全部运行在苹果的私有云计算服务器上。
今日,彭博社记者Mark Gurman报道称,这一合作进展顺利,最快下个月就会在iOS 26.4 beta版中正式亮相,苹果计划以某种形式向公众展示相关功能。他还披露了这次合作达成的一些鲜为人知的新细节。
全新Siri功能即将来袭
我们似乎已经说了无数次“全新Siri即将到来”,但这一次真的要实现了——因为苹果终于放弃了完全自研模型的路线。
彭博社记者Mark Gurman报道:
目前来看,苹果距离公布这一合作成果的时间已不足一个月。公司计划在2月下半月正式宣布全新Siri,并进行功能演示。
目前尚不清楚这次展示会采取大型发布会形式,还是较为低调、严格控制的媒体简报会——或许会在苹果位于纽约的媒体空间举行。不管哪种方式,苹果距离兑现2024年6月WWDC上对Siri的承诺,只剩几周时间。
iOS 26.4中的全新Siri功能将让Siri更懂你屏幕上的内容、更了解你的个人信息,并且能直接帮你在应用内完成各种操作。
这些功能背后由运行在Private Cloud Compute上的Gemini模型提供支持,内部代号为Apple Foundation models v10,采用1.2万亿参数规模的模型。不过这只是开始——到了iOS 27,Siri将变得更加强大。
上周Gurman还报道,苹果将在iOS 27和macOS 27中全面引入类ChatGPT的对话式功能。这些功能将由Apple Foundation Models v11提供支持,其性能接近Gemini 3水平。他形容其能力“远超支持iOS 26.4版Siri的模型”。
由于这些功能技术要求更高,可能需要依赖谷歌的基础设施才能实现。目前关于iOS 27功能的谈判仍在进行中。
苹果差点收购另一家AI实验室
在本月初宣布与谷歌Gemini合作之前,苹果其实还探索了多条不同的道路。
去年6月,当彭博社报道苹果考虑引入第三方模型而非自研时,公司内部高层曾强烈反对。据称Siri负责人Mike Rockwell在当时的紧急会议上直接称该报道“胡说八道”。
然而尽管高层嘴硬,苹果当时已与Anthropic和OpenAI同时展开模型供应谈判。但与Anthropic的谈判在8月左右陷入僵局,对方要求“未来多年每年数亿美元”的高额费用。而与OpenAI的合作也不顺利,因为对方正积极挖角苹果设备团队,并与Jony Ive合作开发硬件。
在法院裁定苹果与谷歌的iPhone默认搜索合作不违法后,与谷歌在Gemini上的合作迅速成为最优选择。
总结
总的来说,我们很快就能体验到首批真正的Apple Intelligence Siri功能。虽然距离最初公布已过去近两年,兴奋感已不如当初,但一旦亲手试用,相信这种感觉还会重新燃起。


















