飞象网讯(魏德龄/文)总是习惯性晚一步的苹果,已经悄然瞄向了大热的AI,此前围绕在iOS18传闻周围的关键词正是AI与智慧助手的升级,本周关于这一传闻有了进一步的指向性内容,那就是端侧AI。
苹果瞄向端侧AI
据彭博社记者Mark Gurman在一档节目中透露,苹果在iOS18上的首批AI功能将无需依赖云端服务器的算力,可完全在本地运行。
这意味着,苹果将通过相关框架让大语言模型得以小型化,通过模型量化技术减小模型大小和提高推理速度,同时实现并发处理和高效利用设备资源,从而能够在终端本地安装并运行。实际上,目前已经有相关AI应用发布于苹果App Store,并可在终端本地运行16亿-70亿参数量不等的大语言模型。
此前,相关消息显示,iOS 18系统内的多个功能,以及相关苹果生态下的官方应用,都将因为AI而受益。例如正在的开发一个集成AI的消息应用功能,能够更快速恢复短信内容。据福布斯的预测,生成式AI能力还将为苹果的生产力工具带来升级,例如Pages、Keynote、Numbers这三大办公套件,将可获得一系列新能力。
同时,苹果还公布了自研的MM1多态大语言模型(Multimodal LLM)。MM1共分为三个参数规模,其中最大的拥有300亿参数。根据科技博客Daily Dev的评测显示,MM1在GLUE-Score等多项评测指标上要略优于GPT-4V和Gemini Pro。
硬件配置吃得消吗?
不过,如果将升级的能力全部依托于端侧的话,苹果手机目前的硬件配置能否吃得消的问题也浮出了水面。当设备运行生成式AI模型的时候,一般会占用一定的RAM空间,同时模型本身也会占据一定的硬盘空间。
而上述两项对于苹果设备来说,显然是个小痛点。目前iPhone 15 Pro系列的RAM为8GB,iPhone 15系列为6GB,而iPhone 13系列仅为4GB。考虑到本地运行模型运算是对于RAM的占用,iPhone 15 Pro系列的8GB可能最为适宜,而6GB的iPhone 15系列只能将就。4GB的iPhone 13系列很可能将难以满足运行需求。
同时,对于一直被网友戏称为把硬盘空间当金子卖的苹果来说,一些旧有机型的用户届时在实现系统升级,并获得相关本地生成式AI能力的时候,或将面临本地存储空间吃紧的问题。要知道,因为空间不足导致升级系统失败的案例曾经在iPhone 4s时代大规模出现过。
不过好消息是,大量现役iPhone机型的NPU算力并不成问题,苹果近年来在每代A系列芯片上的升级重点就在于NPU。例如A17 Pro的NPU在算力上实现了两倍的提升,相比于提升10%的CPU与提升20%的GPU,可谓是牙膏爆挤。
端侧AI大爆发的必然
其实,对于习惯性晚一步的苹果来说,发力端侧AI更意味着对于该技术方向的肯定。同理在近期,苹果也放弃了耗时10年的电动车计划,并同样把该领域的研究经费转向AI领域。
而端侧AI也完全符合苹果对于安全与隐私上的产品定位,由于端侧AI能够让敏感数据完全在本地运行,保证了数据不会上传至云端,也就在实现AI能力的同时,保证了隐私。对于依靠云端服务器的AI而言,例如在近期宣布无需注册就能使用的ChatGPT,如果用户需要强化保护自身的聊天数据,就需要手动在设置中选择不将聊天记录用于训练,但其实很多用户在日常使用中都会忽略这点。
随着生成式AI模型的变小,100亿及更多参数的生成式AI模型也即将能够在终端侧运行。实际上,目前在笔记本设备中,已经能够运行130亿参数的大语言模型,相信在智能手机流畅运行已指日可待。这就意味着,在端侧设备上,同样可以实现媲美云端服务器的文字生成图像、对话和NLP、协作机器人、图像理解等功能,只要输入与生成的量级可控,端侧AI同样能够带来令人满意的表现。
这方面,Android阵营已经先行一步。
小米方面曾在去年透露,从2016年开始,小米就开始了对大模型的研究和开发,今年更是成立了专门的大模型团队。目前,小米的AI相关团队已经超过3000人。还有报道称,小米AI大模型的一个13亿参数大模型已经成功在手机本地跑通,部分场景可以媲美60亿参数模型在云端运行结果。
今年MWC巴塞罗那上,高通展出了全球首个运行多模态大模型(LMM)的手机,支持超过70亿参数大模型,不仅能够接受文本输入,还可以接受图像、音频等其它输入数据类型。
荣耀在今年年初发布了自研端侧 70 亿参数平台级 AI 大模型“魔法大模型”,并表示现有操作系统都值得用 AI 重做一遍。
vivo的AI蓝心大模型也实现了“端侧7B+云侧70B”超大参数规模部署,能实现超过700种手机相关功能,为超过2000万用户提供超能问答、超能创作、超能搜索、超能管理、超能交互等AI服务。
不过,端侧AI无疑才刚刚上路,至少目前它的很多功能展示更像是手机发烧友的玩具,然而,随着习惯性晚一步的苹果的引入,完全成熟可用的本地生成式AI功能即将到来。2024年,对于端侧AI来说,或许将是从“玩具”到“工具”的关键一年。