查看原文
其他

【I/O大会】谷歌解密打败李世石武器TPU,可将摩尔定律提速7年

2016-05-19 闻菲、胡祥杰 新智元


C
新智元原创  

   记者:闻菲、胡祥杰


【新智元导读】谷歌于北京时间今日凌晨召开的I/O大会上公布了其传闻已久的定制专用集成电路“Tensor Processing Unit”(TPU),TPU 专为谷歌深度学习平台 TensorFlow 打造。谷歌表示已在公司内部使用 TPU 超过一年。这一消息进一步印证了面向机器学习专用的处理器是芯片行业的发展趋势,而且企业尤其是使用人工智能技术的大企业对“专用芯片”的需求可能比芯片制造厂商预计得还要深。





AlphaGo 打败李世石的秘密武器


谷歌基础设施副总裁 Urs Holzle 在 I/O 发布会上告诉记者,过去一年中,谷歌在公司数据中心部署了“上万个”TPU,但没有透露确切的数字。


据谷歌 TPU 团队主要负责人 Norm Jouppi 在 Google Research 博客中介绍,TPU 专为机器学习应用打造,可以降低精度运算,因而能够在同样时间内处理更复杂、更强大的机器学习模型,并更快地将这些模型投入使用,用户也能得到更快速、更智能的回复,从而形成一个正循环。


谷歌 Senior Fellow、美国工程院院士 Jeff Dean 在其博客中介绍,谷歌数据中心早在一年前就开始使用 TPUTPU 比其他的计算方式要快得多,效率也高得多,在产品中完美地使用 TensorFlowJeff Dean 还介绍说,TPU 已经用于谷歌搜索中进行 RankBrain 算法,这也是 AlphaGo 打败李世石的秘密武器。



在 AlphaGo 对战李世石时使用的插 TPU
的谷歌处理器。谷歌最新发布的芯片 TPU(见头图)专为 TensorFlow 打造,在公司内部已经使用超过一年,目前已被应用于 RankBrain、Street View 等多项机器学习应用。来源:cloudplatform.googleblog.com


谷歌公司内部使用一个名叫“PCI-E”的协议,谷歌数据中心的处理器硬盘上有一个插口,带 TPU 的插板可以插进去,只要插上这些芯片,就可以大幅度提高处理器性能。在博客中 Jouppi 写道,从“第一次测试”到量产只用了“不到 22 天”,其性能之好,“差不多把技术往前推进了 7 年(摩尔定律的3代时间)”。

 

美国加州大学圣塔芭芭拉分校电气和计算机工程系教授谢源告诉新智元,Norm Jouppi 是计算机体系结构领域的大牛,2013 年 9 月被谷歌从惠普实验室挖去。由此可以推测,谷歌至少在两年半前就开始了打造其机器学习应用专用加速器的计划



Norman P. Jouppi 以计算机内存系统方面的重大创新而著称,拥有超过 75 个专利。他是多个微处理器的首席构架师,曾为 GPU 的构架和设计做出贡献,他在微处理器设计方面的创新被多家高性能微处理器所采用。图片来源:nae.edu


谷歌基础设施副总裁 Urs Holzle 在发布会上表示,使用 TPU 代表了谷歌为其人工智能服务设计专用硬件迈出了第一步,今后谷歌将设计更多系统层面上的部件,随着该领域逐渐成熟,谷歌“极有可能”为特定人工智能任务制造更多的专用处理器。就像 Holzle 对 TechCrunch 记者说的那样:“有些时候 GPU 对机器学习而言太通用了。”

 

作为芯片制造商的大客户,谷歌揭幕 TPU 对 CPU 巨头英特尔和 GPU 巨头英伟达来说都是不小的商业压力。尽管为了适应市场趋势,英特尔和英伟达此前分别推出了适用于深度学习的处理器架构和芯片 OPA 和 Telsa P100 意欲扩张当下的市场份额,但看来芯片“专用”的需求比其预计还要更深。

 

接下来,其他大公司也大有可能组建自己的芯片团队,像谷歌这样设计公司专用的芯片。


摩尔定律 X 7


Moore Insights & Strategy 的分析师 Patrick Moorhead 参加了2016年的 I/O 大会,他说,根据目前谷歌透露的 TPU 情况,他认为谷歌现在还不会抛弃传统的 CPU 和 GPU。

 

Moorhead 说,他认为 TPU 可能会成为一种可以实现机器学习算法的芯片,这些算法目前使用的是能量消耗更高的 GPU 和 CPU。根据谷歌的说法,TPU 的性能等于把摩尔定律加速了7年。对此 Moorhead 并未表示质疑,他觉得这跟 ASIC 和 CPU 的关系很像——ASIC 是硬编码(Hard-Coded)、高度优化的芯片,能在单一任务上做得很好,不会像 FPGA 那样可以改变,但可以提供巨大的性能优势。


Moorhead 举了个例子,比如用 CPU 和 ASIC 来分别解码一个 H.265 的视屏流,CPU 消耗的能量要远比 ASIC 多;但是,ASIC 造价太高并且参数固定,改变算法的唯一路径是制造一个新的芯片,而不是重新编程,这也是为什么 ASIC 一般只会被那些预算没有上限的单位使用,比如政府。


谷歌强调,公司将继续使用其他厂商制造的 CPU 和 GPU,TPU 只是在一些特定的应用中作为辅助使用。


谷歌云服务副总裁 Diane Greene 表示,谷歌并没有将 TPU 对外销售给第三方的打算。

 

谷歌目前拒绝透露制作 TPU 的厂商名称,但表示目前一共有两家厂商在为其生产 TPU。



资料来源:

  1. cloudplatform.googleblog.com

  2. Jack Clark,Google Reveals Use of ‘Thousands’ of AI Processors It Designed,bloomberg.com

  3. Frederic Lardinois,Google built its own chips to expedite its machine learning algorithms,techcrunch.com





「招聘」

全职记者、编译和活动运营

欢迎实习生

以及人工智能翻译社志愿者

详细信息请进入公众号点击「招聘」

或发邮件至 jobs@aiera.com.cn


新智元招聘信息请点击“阅读原文”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存