临近年末,生成式AI的“惊艳”速度远远超过了人们“野望”它的速度。比如炙手可热的Midjourney推出了再度炸街的V6版本,再比如谣传月底即将发布的GPT4.5、谷歌的多模态模型Gemini发布等等。
然而,Apple看似在这一年里显得格外低调,没有像谷歌那样硬刚OpenAI的GPT4,也没有像微软或亚马逊那样高调的将大模型搞进“云”。
但今天大家才明白,Apple搞的事情,却是决定成败的“最后一公里”的事情:让大模型高效地跑在iPhone的内存上!
Apple亮出剑锋,在20日发表了一篇很硬核的在手机内存上运行大模型的论文(《LLM在闪存中:内存有限的高效大型语言模型推理》),在文中构建了一个可以大大扩展LLM适用性和普及性的研究框架,该框架以闪存为基础进行推理,并在两个关键领域进行了优化:减少闪存传输的数据量,读取更大、更连续的数据块。
图片
那么,Apple是如何做到的呢?它采用了两种主要技术:
首先,“窗口化”通过重复使用先前激活的神经元来战略性地减少数据传输。
其次,根据闪存的时序数据的访问强度量身定制“行-列绑定”技术,从而增加了从闪存读取的数据块的大小。
图片
看不懂不重要,重要的是极大扩大了在手机上运行大模型的参数大小,以及加快了模型的推理速度,具体而言:
这两种方法共同实现了运行高达可用DRAM两倍大小的模型,与CPU和GPU中的原始加载方法相比,推理速度分别提高了4-5倍和20-25倍。
这也就意味着,将大模型搬到手机中,基本上算是板上钉钉的事情了!Apple正在积攒新的AI黑科技,从芯片、到存储、再到模型和应用,Apple一改缓慢姿态,杀招即将亮出!且让我们看看Apple的近期动作。
GPT4的发布,让整个科技行业从兴奋到狂热,只有Apple这家科技巨头貌似“心静如水”。
然而,即使Apple首席执行官库克一度公开表示:对于苹果公司多年来一直致力于生成式AI,但稀少的成果报道无疑加重了苹果内部人员在猝不及防之间,对于技术重大延迟的焦虑感。
此前就有消息报道,7月,苹果发布了自己的大型语言模型Ajax(基于谷歌的JAX),并引入了一个名为“Apple GPT”的内部聊天机器人进行测试。目前,该聊天机器人程序主要用于产品的原型设计,只有少数有权限的人才能访问。
然而,这项技术是否能与现有产品竞争,以及苹果如何将其有效地集成到其产品中,依旧有待评估。
首先是投入成本高昂。据MacRumors称,苹果在对话式人工智能研究上的花费,高达每天数百万美元,因为训练语言模型需要大量硬件投入。
此外,出于对消费者隐私和AI偏见的问题,苹果正在思考如何在尊重客户隐私承诺的前提下使用和处理个人数据。
当然,不得不提的是由于担心内部数据泄露的问题,前期该公司也限制了员工对于AI工具的使用。
不过好在,Apple也不是没有积累,据供应链数据显示,Apple可能会在2023年建造数百个人工智能服务器,而明年的建设数量将会更多。
不过,既然“大模型+应用”的打法一时陷入困局,“设备+大模型”更像是苹果的不二选择。
在繁荣时期的相对被动并不影响苹果凭借自身强大壁垒的厚积薄发,大概在10月左右,苹果似乎开始改变了其在生成式AI时代下的新打法:
在其所有设备上开发生成式AI功能,包括iOS、Siri和其他应用程序。
最先曝出惊喜的是,11月,开发人员在搭载M3系列的芯片的14英寸MacBook Pro上无缝地运行最大的开源GPT模型(具有1800亿个参数的Falcon),而且质量损失很低。同时还声称,其增强的神经引擎有助于加速强大的机器学习(ML)模型,同时保护隐私。
这让AI开发者们自然合不拢嘴。此外,苹果公司在其博客文章中表示:“该版本的MacBook支持高达128GB的内存,可以解锁以前在笔记本电脑上无法实现的工作流程。”