苹果iPhone 17系列曝光,关于下一代iOS操作系统的新闻也会随之而来。
彭博社知名科技记者马克·古尔曼近期称,苹果将在明年6月WWDC25上公布Siri的重大升级,能够像ChatGPT一样处理复杂的问题和需求。苹果可能要在Siri身上采用自研AI大模型技术。
当前,Apple Intelligence依赖第三方大模型,海外接入的是ChatGPT,而国内版本,从百度到字节再到腾讯,苹果的绯闻对象悬而未决,苹果智能能否落地中国也是未知数。
(图片来自苹果)
外界对ChatGPT版的苹果智能普遍不看好,主要是体验一般,有时候生成出来的信息并非用户所需,而SellCell的数据显示,近半数iPhone用户在购机时会将设备是否支持AI功能视作重要因素,然而73%的用户在购买iPhone之后,又发现AI对手机的提升微乎其微。
既然如此,把ChatGPT等第三方大模型换成之一方的“苹果牌AI”后,Apple Intelligence的现状和口碑有扭转的可能吗?
“苹果牌AI”要来了
自从Apple Intelligence推出后,苹果iOS的主要升级点几乎围绕着它来展开。
最早的iOS 19系统曝光是在2024年6月30日,当时距离iOS 18亮相还不到20天,马克·古尔曼就打响了新系统曝光的之一枪。他表示iOS 19的代号为“Luck”,中文意为“幸运”。
随后的几个月当中,iOS 19的消息难觅踪迹,直到最近,cultofmac和马克·古尔曼相继带来新消息,称iOS 19将包含基于大预言模型的重大Siri升级,允许用户使用自然语言进行多轮对话,关键功能方面更类似ChatGPT,能够处理更复杂的用户需求。
目前这部分需求是通过深度整合ChatGPT完成的,当Siri遇到超出其处理范畴的问题时会将提示词转交给ChatGPT处理,提供准确的答案和建议。借助ChatGPT的生成能力,苹果的写作工具、视觉分析、个性化表达、办公等多个能力也得到了加强。
那么Apple Intelligence的大模型能力只是单纯的买办吗?显然不是,在大家注意不到的角落中,苹果还整合了一个约3亿参数的AFM-on-device端侧模型,以及AFM-sever服务器模型,更多用于适应用户的使用习惯和优化整机运行效率。
小雷猜测,苹果此举可能是计划将自研的“苹果牌”AI大模型整合到Siri功能当中,意在取代ChatGPT以及后来可能加入的第三方大模型,毕竟按照苹果的想法,大概是不希望在核心技术上受制于人。
好消息是,iPhoneSoft报道称,苹果下一代操作系统更新的设备兼容性信息已经提前泄露,所有目前支持iOS 18的iPhone都可以升级iOS 19,包括iPhone XS和iPhone XR。如果爆料信息准确,老iPhone用户又能“再战一年”。
(图片来自苹果)
但小雷对iOS 19系统并不是很乐观,新系统对的支持,大概率是基于“ *** ”之上的,也就是说“年事较高”的iPhone没有办法享受到iOS 19系统的全部特性,部分动画渲染效果也有降级的可能。
另外马克·古尔曼还表示,苹果公司分阶段发布iOS 18的策略导致了iOS 19的开发工作出现延误。因为AI功能,苹果今年采用了分阶段更新的策略,通过各种小版本扩展iOS 18的功能,但过于碎片化的功能更新也直接导致了iOS 19开发进度放缓,或者说本应在iOS 18上实装的新特性,可能要等到iOS 19才有了。
尤其是Apple Intelligence,苹果曾在WWDC24上提到苹果智能对使用机型有严格限制,至少需要8GB以上的运行内存才能正常运行,更别提中国iPhone用户还没用上苹果智能。
凡事都有例外,苹果推出台前调度功能时也强调硬件的重要性,只是后来才降低了门槛,适配了更多的老机型。说不定,为了更快铺开苹果智能,官方也会允许达不到硬件要求的老iPhone用上部分能力。
“智障”Siri,要靠自研大模型救场?
起初,Siri的技术源于美国历史上更大的人工智能项目Cognitive Assistant that Learns and Organizes,最初以文字聊天服务为主,后来通过与全球更大的语音识别厂商Nuance合作,使得Siri具备了语音识别能力。
2010年4月,苹果公司以约1.5到2.5亿美元的价格收购了Siri,并将Siri软件从App Store下架,整合到了2011年10月发布的iPhone 4S中。在当时人工智能初具雏形,与手机深度绑定的语音助手能够将语音转换为文本后执行对应命令。
但当时的语音助手普遍只能完成比较机械化的命令,遇到超纲的问题基本会跳转到网页搜索,被国内外网友调侃“智障”,被吐槽较多的是Siri听不到用户的唤醒指令,另一个就是“已读乱回”带来的尴尬。
到了AI大模型时代,吐槽Siri的声音依旧不绝,一方面是Apple Intelligence功能并没有达到足够的成熟度,对日常使用的升级十分有限。另一方面,用户对苹果智能生成的摘要普遍不满,主要是生成的摘要经常出现事实错误。
X网友@TheCrypReper直言苹果智能的体验远不如谷歌Gemini,想要退掉iPhone;@LearnOpenCV表示苹果智能是苹果公司有史以来最糟糕的产品更新,他仍然无法区分糟糕的旧版Siri和新版Siri;@thetechwhore言论比较激动,称苹果智能是有史以来更大的噱头和谎言。
(图片来自X平台)
只能说网友的吐槽并非空穴来风,反映了当下苹果智能存在诸多不成熟的地方。
另外,前面提到Apple Intelligence的大模型生成能力,主要是通过整合ChatGPT的AI大模型实现的,短期看的确能够让苹果AI实现从0到1的跨越。但毕竟是个“外接”模型,并不是与iPhone、iPad、Mac等硬件深度绑定的存在,本质上和安装一个AI大模型App没有太多区别。
另外考虑到监管以及中文支持等因素,苹果智能想要进入国内服务,寻求本土AI大模型供应商合作是最理想、最快捷的道路,早期传出苹果与百度合作的消息,近几天又曝出苹果正在和腾讯、字节等公司接触,现在和哪家本土大模型合作还未尘埃落定,苹果智能入华有不小的阻力。
结合爆料信息看,无论是国外还是国内,第三方大模型对苹果而言可能都是过渡方案。但苹果自研的AI大模型表现能否比第三方更好,是否能够完美融合到苹果的软硬件生态当中,乃至改变使用习惯,小雷要打个问号。
AIOS成大势所趋,苹果这一波不能躺平了
AI大模型这项技术的关键就在于模型,模型表现做得不好,表现不全面甚至错漏百出,那么也会影响到接入它的各种设备的体验,iPhone就是更好的例子。
归根到底,Apple Intelligence是苹果这两年更大的升级点,也是最尴尬的升级点。
小雷曾经就苹果国内版AI讨论过,就算能够成功“落户”中国市场,它也不是拯救iPhone创新的关键解药。虽然很现实,但现阶段体验一般且有些“搞心态”的Apple Intelligence,坦白说还不如大额补贴来得诱人。
目前来看,苹果AI的下一步计划可能就是将ChatGPT等第三方模型更换为自研AI大模型,理论上来说只是少了Siri“外包任务”的步骤,帮助苹果更好地将生成式服务整合进系统当中,做更深的软硬件联动。
老实说,小雷不认为这次大幅改进能够让Siri脱胎换骨,毕竟只是更换一个方案,本质上还是在原有的系统架构上进行的AI化改良,并非原生的AIOS,充其量只能完成相对复杂的指令,并且发挥生成式大模型的基本特性而已,眼下这个饼并不好吃,但苹果又不得不为了维持竞争力推出AI功能。
这一点国产AI手机就走在前面,围绕系统底层重塑AI系统,使其能够进行大规模并行计算等更复杂的动作,比如赵明在荣耀Magic7系列发布会上,通过YOYO自动化操作,一口气点了2000杯咖啡,用户只要给出指令,AI系统就会自动完成付款确认前的操作部分。这是传统系统架构很难实现的能力,手机“自动驾驶”可以从根本上改变用户的使用习惯,只要下达指令即可。
基础的生成式模型接入和软硬件整合体验,苹果目前还没做好准备,部分iOS新版特性也是随安卓系统后推出的,已经从领导角色转变为跟随的角色。诚然,苹果仍然能够靠着iPhone和品牌继续称霸市场,但智能手机未来将会围绕“自动化系统”展开竞争,能否跟上国产大部队,就看在AI领域的道行够不够深了。
不管怎么说,先让国内用户用上Apple Intelligence吧。
发表评论