解密iPhone X大脑:苹果押注AI芯片,早在三年前就决定了

李林 问耕 编译整理

量子位 出品 | 公众号 QbitAI

在苹果公司CEO库克的口中,iPhone X“为未来十年设定了技术路线”。

新增的OLED全面屏、抛弃的传统Home按键都是表象,更深刻的影响来自这款手机的内部,一个新的趋势对苹果乃至竞争对手来说,都有着至关重要的长期影响。

三年前的押注

这个新变化,苹果早已开始谋划。

苹果万元机iPhone X发布会后不久,苹果公司硬件技术高级副总裁Johny Srouji和全球市场高级副总裁Phil Schiller接受了Mashable的采访,专门谈及新iPhone的大脑:A11 Bionic芯片。

在这次采访中,Srouji说,当苹果设计芯片的时候,会放眼三年后。也就是说,A11 Bionic芯片的研发早在苹果发售iPhone 6、人们刚用上A8芯片的时候就开始了。

那个时候,还没人谈移动设备上的AI和机器学习。然而,Srouji说:“神经引擎的嵌入,是我们三年前下的赌注。”

提前这么久做规划,就意味着在这三年之中,只要有合适的理由,规划就得修改。

负责屏幕的团队、Schiller的市场团队,三年来都根据他们对iPhone X需求的判断,向Srouji提出过修改规划的要求。比如说,芯片怎样才能更好地支持Super Retina HD屏幕的显示?

“处理器在面对变化时有很强的灵活性。”Srouji说。他从第一代iPhone那个时代起,就在苹果工作了。如果团队中有人提出了一个不在最初规划之中的需求,“我们要想办法满足它。我们不会坚持按照规划来,拖到5年后采取实现这个需求。”

Schiller说,他很赞赏Srouji团队在规划发生变动时“上天入地,千方百计”去实现的能力。

A11 Bionic

上一代苹果手机芯片A10 Fusion,是一个四核处理器,两个性能核心,两个能效核心。在处理重量级任务时,使用性能核心;处理轻量级任务时,关闭性能核心,使用能效核心,减少电池消耗。

而新一代A11 Bionic,让苹果更进一步。

A11 Bionic是一个六核处理器,有两个性能核心,四个能效核心。根据苹果给出的数据,A11比上一代快25%,能效提升了70%。

A11芯片在多线程任务上效率更高,这要归功于第二代性能控制器,如果任务需要,这个控制器能同时接入A11的6个核心。所有六个内核可以同时使用,也就是说App运行在性能核心的同时,轻量级任务可以交给能效核心处理。

Srouji说,游戏可能要用到更多的核心,但像在用户打字的时候预测下一个词是什么这种简单任务,也会用到能效核心。

除了这些在A10基础的上的升级之外,A11还从头设计了两个全新的杀手锏:神经引擎(Neural Engine)和图形引擎(Graphics Engine)。

以前,苹果一直在用第三方GPU,在A11 Bionic里,苹果做了收款自己设计完成的GPU。与上一代相比,性能提升30%。

A11 Bionic采用了10nm工艺生产,而A10使用的是16nm。

在这次发布会之前,已经有人对A11芯片进行了横评。在Geekbench测试中,A11芯片在单核测试中的得分在4300~4600之间,多核测试在7000~8500之间。

单核测试的成绩显示,A11比最新款iPad Pro中使用的A10X Fusion芯片更强大(后者得分3878);而多核测试的成绩也比iPhone7 Plus中的A10 Fusion芯片表现更好(后者得分5523)。

当然,最重要还是跟Android阵营比一比。以三星Galaxy S8为例,这款手机搭载的Exynos 8895上述两个测试的得分,分别是:1966、6502。

刚刚出来的跑分显示,A11 Bionic芯片的性能甚至和苹果最新的13寸Macbook Pro不相上下。( ⊙ o ⊙ )

神经引擎

然而A11 Bionic芯片中最神秘的部分,莫过于“神经引擎”。这个引擎用于加速人工智能相关的任务。

例如负责处理Face ID的人脸识别、根据表情生成Animoji等机器学习算法。苹果说,这个双核引擎能认出人、地点、物体,还能以每秒6000亿次的速度处理机器学习任务。

“你看那些应用和软件,有些算法更适合用函数式编程模型。”Srouji说。

这包括iPhone X的面部追踪和Face ID,以及增强现实中所用到的目标检测。这些功能都要用到神经网络、机器学习。这类神经处理可以在CPU上运行,在GPU上更好。

“但是对这种神经网络类的程序模型来说,用针对这类应用定制的芯片,专门执行同样的任务,会比用图形引擎更高效节能。”Srouji说。

和A11其他部分相比,神经引擎的独特之处在于它能执行矩阵乘法和浮点运算。

早在今年5月,坊间就传出消息苹果正在开发一种专用处理器,用于处理AI相关任务,例如面部和语音识别。

但直到现在,苹果公司对这个神经引擎不愿透露更多细节,但是Siri这种虚拟语音助手以及其他第三方的功能,都可以受惠于这款芯片。可以想见,未来可以通过语音,让iPhone在你的相册里把跟“狗”有关的照片全都找出来。

除了神经引擎,苹果还在今年早些时候的WWDC上,为iOS 11系统增加了CoreML库。从软硬件两方面入手,加强iPhone的AI处理能力。

在此之前,大部分设备处理复杂AI任务都是基于两种芯片:CPU和GPU。然而此次神经引擎的出现,iPhone可以把这些工作丢给专用芯片处理,这将降低CPU和GPU的工作负载,也有利于提高整体的电池续航。

但苹果也并非没有对手。比苹果提前几天发布的华为麒麟970芯片,内部也有一个神经处理单元NPU。从纸面上比较,麒麟970每秒运算速度可达万亿次。

不过,搭载麒麟970的手机暂时还没上市。

— 完 —

活动报名

加入社群

量子位AI社群8群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot3入群;

此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。

进群请加小助手微信号qbitbot3,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态

相关文章推荐