Google 公布 TPU 细节后,AI 界怎幺看?

2020-06-07    收藏574
点击次数:732

Google 公布 TPU 细节后,AI 界怎幺看?

我们对 Google 的 TPU 并不陌生,正是它支撑了 AlphaGo 强大快速的运算力,但 Google 一直未曾披露细节,使 TPU 一直有神祕感。

美国当地时间 4 月 5 日,Google 终于打破沉寂,发表官方部落格,详细介绍 TPU 各方面。相关论文更配以彩色 TPU 模组框图、TPU 晶片配置图、TPU 印製电路等,可谓图文并茂,称其为「设计教程」也不为过。不出意料,这之后会涌现一大批仿效者。

论文中还给了 TPU 与其他晶片的效能对比图,称「TPU 处理速度比目前 GPU 和 CPU 要快 15 到 30 倍」,有人讚叹 TPU 的惊人效能,但也有人对此种「比较」表示质疑,因其拿来的比较对象并非市场效能最好的。

这篇论文有哪些亮点?争议点在哪里?Google 公布 TPU 细节会对业界产生什幺影响?本文要解答这几个问题。

Google 为什幺要做 TPU?

这篇论文的主题为:《资料中心的 TPU 效能解析》(In-Datacenter Performance Analysis of a Tensor Processing Unit),共同作者多达 70 人,领衔第一作者是硬体大师 Norman Jouppi。Google 公布 TPU 细节后,AI 界怎幺看?

Jouppi 在接受外媒 Wired 採访时说,Google 一开始曾经考虑要用 FPGA,但是后来经过实验发现,这种晶片无法提供理想的速度。

最终,他们将目光放到 ASIC(专属积体电路,一旦设计製造完成后电路就固定了,无法再改变)上,TPU 就是一种 ASIC。在接受外媒 The Next Platform 採访时,Jouppi 表示 TPU 可适用现存各种神经网路模型,从影像辨识的 CNN 到语音辨识的 LSTM,都适用。

Google 已使用 TPU 两年,应用在各领域工作,包括:Google 影像搜寻(Google Image Search)、Google 照片(Google Photo)、Google 云视觉 API(Google Cloud Vision API)、Google 翻译以及 AlphaGo 的围棋系统中。

TPU 只是一种推理晶片

需要明确说明的是:TPU 是一款推理晶片,并不是用做训练。根据辉达首席科学家 William J. Dally 的说法,在深度学习领域,主要有 3 种运算方式:

所以 TPU 针对的,就是第二种运算方式:资料中心的推理。对推理运算而言,重要指标就是快速和低能耗。在 Google 部落格里,Jouppi 特别强调 TPU 以下效能:

AI 业界如何看待这篇论文?亮点:特定场域下的高效率

对于 Google TPU 论文里的技术特点,雷锋网採访了寒武纪科技 CEO 陈天石,他分别从架构、效能和工程 3 个角度,分析这篇论文涉及的技术问题。

虽然寒武纪与 Google 分别在硬体方面选了不同的商用形态,但是双方都从彼此身上学习。陈天石提到 Google 这篇 TPU 文章,参照了寒武纪团队成员前期发表的 6 篇学术论文,并有专门段落回顾一系列学术工作。

雷锋网也採访了深鑒科技 CEO 姚颂,业界已经对 TPU 文章里的设计亮点评论颇丰了,姚颂从另一个角度看待这个问题,他认为「TPU 的最大亮点其实是 TPU 这件事本身」。并列计算有很多种架构,如 GPU、FPGA 等,一个公司选择某个方向有它的深思熟虑。姚颂认为 Google 做 TPU 这件事情本身,其实是展现出一种「直接面对应用需求」姿态,根据最终应用来进行「自订计算」,而他所在的深鑒科技选择的,也是类似 Google 这种「自订化」发展型态。

争议:论文里 TPU 的比较对象

论文里,TPU 的比较对象是:英特尔 Haswell E5-2699 v3 和辉达 Tesla K80。有人对比较提出异议,因为 Tesla K80 并不是辉达最强最新的晶片产品。

外国网友 jimmy 表示:

网友 Szilárd P 则表示,拿 TPU 跟 Pascal Tesla 比较很荒谬。因为辉达发表 Pascal Tesla 的时间是在 2016 年 9 月,但当时 Google 这篇论文是为了第 44 届 ISCA(国际计算机架构会议)準备的,论文提交截止日期是 2016 年 11 月,而辉达 Pascal Tesla 正式出货时间也要等到 10 月,所以 Google 再重新做实验测试,是不太实际的。但他同时也表示:

针对这一点,陈天石认为如果纯粹考虑技术因素,这种比较是否公平要看从什幺角度看:

姚颂则从另一个方面对这种「比较」进行解读,他认为这或许是 Google 一种「韬光养晦」的策略。他表示 Google 通常有了新一代的技术才会公开上一代技术,论文的比较对象没有採用最新 GPU 晶片,并不是 Google 有意取巧。

对外:于业界会有什幺影响?会有很多人开始仿效製造吗?

Google 以论文形式,图文并茂地将 TPU 的架构、核心部件都说明得清清楚楚,那幺会不会有后来者群起仿效呢?对于这一点,姚颂表示,Google 公布的技术虽然通常不是其最新的研究进展,但也往往非常先进和新颖,肯定会有人仿效,但仿效的话,也只会把自己的起点放在 Google 4 年前的起点罢了。

而陈天石从架构角度给了另一个看法,他认为与 TPU 类似的方案之前已经存在了。

总结

从这篇论文里,Google 的 TPU 细节一览无遗,然而 TPU 是为了 TensorFlow 自订的,对一些 AI 晶片厂商来说,或许能从这篇论文里获得一些灵感,但一味仿效可能得不偿失。

TPU 并不是全能,只是用于资料中心的推理阶段。深度学习模型的前期训练,也还是要依靠高精确度的 GPU。而且 TPU 通用性差,Google 也曾在多种场合表示不会贩售 TPU。所以对于辉达一类的通用晶片厂商来说,并没有直接的竞争威胁。然而,Google 带头追求特定领域应用的极致效率,对很多走自订化路线的 AI 晶片厂商来说,是莫大的鼓舞。

陈天石和姚颂两位 CEO 各自带领的 AI 晶片公司,在进行不同种类的 AI 晶片研发和商用工作,寒武纪科技偏通用,深鑒科技偏工业自订。两位 CEO 也都彼此惺惺相惜,就像陈天石曾对姚颂说的那样,这个市场需要多种晶片,有偏通用,也有更专属更注重特定领域,共同进步的同时未来也一定有机会合作。

如今 AI 晶片产业处在一个「大航海时代」,真正的宝藏,需要更多人开拓。

相关文章  RELEVANT ARTICLES