苹果[M4]芯片,将为苹果开启怎样的全AI时代?

浏览: 时间:2024-05-11

正文共:3399字 13图

预计阅读时间:9分钟


最近,苹果春季发布会结束之后,我们从发布会提取了一个关键词:【M4】。

确切来说,是苹果的M4芯片。

时隔六年,苹果iPad Pro 终于升级了版本,并且凭借着仅 5.1 毫米的机身厚度,成功取代 iPod nano 成为史上最轻薄的苹果设备。

b70133ba607adfed5a66d631834bc17b-sz_690187

作为此次苹果全新重磅产品,新一代iPad Pro除了更轻薄,还搭载了首发苹果自研M4芯片,让CPU性能提高35%,GPU性能提升50%。

而这,也是引起业内外关注的重点。


关于[M4]算力的猜想

在对M4芯片展开畅想之前,我们先来看看市面上第一梯队的芯片GPU算力如何?

骁龙730   1.84 TFLOPS

骁龙740   2.21 TFLOPS

骁龙750   3.15 TFLOPS

英伟达GTX 1650  2.98 TFLOPS

苹果A17 Pro  ≈ 2.15 TFLOPS 

6d760f9fafe24da56f8214d98e311b0e-sz_20780
248c47d741d1781d73bc967c27faf3b4-sz_276211


关于最新的M4芯片,据介绍其神经引擎具备 38 TOPS(Tera Operations Per Second,每秒万亿次运算)的运算能力。

38这个数值看起来似乎非常高,但这包含了GPU+CPU共同的运算能力,我们从A17 Pro和第一梯队芯片数据可以预测得到,M4芯片的GPU运算能力并不会比同行们高出太多,甚至是持平的水平。

这样一个算是没有特别亮点的芯片发布,对苹果而言,究竟意味着什么?


[M4]将会带来什么?

 

在过去几年里,面对不可忽视的AI大模型浪潮,苹果却在AI领域一直按兵不动,这引起了各方猜测:苹果是否在憋一次大招?还是策略方向的决策失误?

这些都暂且按下不表。

【M4】究竟会为苹果带来什么变化,或者说它将如何为苹果一直以来的强项——用户交互带来什么颠覆性的用户体验?

(在十多年的发展中,苹果主要是通过自主研发硬件和优化软件的方式,来创建和控制自己的产品生态系统,这在过去取得了巨大成功。)

这里提出一个问题:大家觉得苹果是否真的没有对AI进行布局?

首先,是那个十多年前非常先进、如今已经被各家AI聊天工具甩下几条街的Siri。

这是苹果AI最初级的市场呈现,在【M4】背景下,我们大概能猜测,在 iOS 18中它会全面更换算法,用苹果自己的大语言模型驱动Siri。

至于这个大语言模型的名字,我们从Ferret到MLLMs,再到上个月透漏出来的ReALM,它叫什么已经不是重点,我们暂且就认为它叫ReALM。

534c783c7beea87bf6ed127e6a4498e3-sz_53218


有更具体的消息表示,它有80M、250M、1B和3B四个版本的大小,其中哪怕最小的80M模型都已经比GPT-4的表现更好,而这个尺寸的模型是可以直接装进运存的,最大的3B模型的表现更是超过GPT-4一大截。

80M版本的模型大概率会内置在本地,用来处理屏幕实体内容。举例来说,当前你要AI工具帮你处理什么或者识别什么,你至少要把你看到或者要描述的东西用图片或文字,单独发给AI的输入界面。

比如,一张图片里出现了奇怪的东西,你不知道这个东西是干什么用的,你要先截图,然后把截下来的图片发给AI,问它,这个东西是干什么的呀?于是这个步骤就涉及到很让人头疼的隐私问题,其次就是不方便。

相当多60岁以上的手机用户不知道怎么做屏幕截图,或者要求再高一点,不知道怎么截取图像中的一部分,但ReALM对屏幕实体的识别功能就能大幅改进以上两个弱点。

由于隐私和使用体验这两个关键点,外界猜测苹果将会把ReALM放在本地运行。

毕竟在过去,“隐私”这一核心价值观的设立,对苹果而言是一块金字招牌。



RECRUIT


在2017年的WWDC大会上,苹果宣布采用联邦学习(Federated Learning)技术来改进Siri的语音识别功能,因为它解决了隐私安全和训练大模型之间的冲突。


它可以在设备上进行识别,而不需要将用户的语音数据上传到云端进行处理,从而保护用户的隐私。

35c812ce3df1fcf0f7eb461774e713a9-sz_147202

当初始化的模型,在本地完成训练后,传回云端的只是一个基于本地数据训练而得到的模型,而不是用户数据本身。

这些本地模型被传输回云端后,通过模型聚合的方式,用户所有的本地模型将合并成一个全局模型。

最后,苹果会通过模型更新的方式,将合并后的全局模型传输回用户的本地设备上,替换原有的模型。

如此一来,苹果既实现了模型的训练,又保护了用户的隐私安全,可谓一举两得。


要想在本地运行这样一个庞大的模型,并不是一件简单的事情,因为需要占用海量的内存。

GPT-4表现抢眼,但它们都是在云端运行的,我们的手机或PC端只是发出问题和接收答案,所有的计算都由OpenAI的服务器群组搞定。

上亿人的使用,推理计算量是非常恐怖的,于是就会开始遇到ChatGPT无响应、输出慢、被黑客攻击和大家最担心的隐私等等问题。

(有趣的是,在和同事讨论这个畅想的时候,他们确实会第一时间考虑到关于隐私方面的隐患。)

ae6573f1e4a2d2616c378d4c8ca61ae3-sz_311448


我们可以最保守地、最粗糙地按照每10亿参数占用1GB内存去换算,那么2000亿参数就需要200GB内存,然后为了保证其他软件的顺利运行,还需要额外多准备出十几GB的内存,于是能运行ReALM大语言模型的苹果手机可能需要配210GB内存。可今天最顶级的iPhone15 Pro Max是多少内存呢?8GB。


要运行多模态大语言模型,需要把内存加大26倍才可以,这是不可能的,今天就算是安卓阵营的手机,最高内存也只有32GB,离210GB还远得很。


但苹果还是打算把这个模型放在本地运行,方法是使用闪存。通俗地说,就是iPhone存放照片和安装App的那部分闪存空间。


c19c0a2fb5c616bd2121e4bbd8f74395-sz_16217


通常来说,这么做速度上会慢15-50倍,你可以想象一下,大约1-2秒钟才蹦出下一个字,一段300字的答案你要等7-10分钟才能完整显现出来。


但苹果所做的突破正在于此——大幅优化闪存中大语言模型的运行速度。具体方法就是,在大模型运行过程中,只保留一开始就激活的神经元,后续每次运算都基于前一次参数的激活状态进行删除和添加。苹果把这个技术起名为滑窗(sliding window)。此外,还有优化传输的一些操作。(来自苹果的研发人员发布的论文,这些研究有些可能是未来几个月后会应用在产品中的,也有一些只是可行性上的尝试,不一定会用在未来产品上。)


fd5ccaf4bc79a4d0749dad917df240e0-sz_196140

△ 苹果公司关于其在多模态大模型的研究论文。


这样做是否可行呢?它可能需要一个前提,就是大语言模型在处理前后两个token的时候,神经元激活的状况是否高度相似。

而苹果的优势还不止于此。因为iPhone、iPad、MacBook这些硬件里的处理器,不论是A17还是M3,都早早留出了很多神经网络专用的算力。

比如,对iPhone来说,其实从2017年就开始首次在iPhoneX的A11处理器中内置了神经引擎。


至于苹果是怎么做到只用比GPT-4少得多的参数量就能达到很好的性能,那只有等到今年6月10日WWDC2024发布会上才能最终揭晓。

 

[M4]将会带来什么?



总结来说,就是【M4】背景下带来的下一代操作系统ios 18,可能是苹果全面开启AI时代的开始。

试想一下 ,如果嵌入到iPhone中的,是一个能够在本地部署,并且高度优化过后的 Siri ,将会让手机成为一个几乎无所不包的多模态工具,无论是写文章、编程,还是绘画,都能随时随地,在小小的屏幕间实现。

更重要的是,这将让AI调度中枢内置到苹果的生态系统里,实现用户使用的平权。

所谓的“平权”,就是不论年龄、不论职业、不论学历、不论学时、不论性别等,摆脱各种人群标签限制,每个人在使用苹果的产品时,都不会有功能的差距。



也就是解决“有人不会操作和不懂功能”的问题,再也不会有人把智能产品用成初始老人机的效果,因为这一切都由Siri这样的“助理”帮你解决了。

也许未来的某天中午,到了饭点,Siri可以根据你上午看了好几遍炸鸡广告,分析出你想吃炸鸡,并为你选择附近3公里内评分最高的那家直接下单,而你全程不需要参与。

或者在你第二天有行程的时候,Siri会根据你的行程,帮你设置闹钟,安排出行时间,列出行李清单,甚至计算每个步骤所需要的时间,然后在合适的时候打开手机里的叫车软件,帮你约一辆网约车,而网约车还是根据你日常叫车习惯给你安排的车型。

至少,这真的太适合经常要给家里老母亲视频教学电子产品用法的我了。

2011年,苹果用一句“Hey,Siri”,让世界第一次感受到了AI的魅力。

2024年,苹果用一个【M4】,又让人们开始对苹果翘首以待。


— END —


资料来源 | 知乎嘉宾商学、知乎阿尔法工厂、得道卓克科技参考、知乎无锡软件资讯发布、网易号 DeepTech深科技