谷歌重磅发布"云端AI芯片",正式宣布战略大变革
在开幕主旨演讲中,Sundar Pichai正式宣布现已将整体战略从“移动优先”转变为“AI优先”。
最复杂的问题,其实往往存在于日常生活中。令人激动的是,Google 渐渐成为了越来越多人生活中的一部分:
Android 设备月活跃用户刚刚突破了 20 亿;
YouTube 不仅有着 10 亿用户,更有着长达 10 亿小时的日播放时长;
Google 地图日导航里程超 10 亿公里。
但若是没有了计算机向移动设备转变的大潮流,这一切的增长都将是不可能实现的。这也让 Google 开始重新思考对产品的改造,以适应新型的交互模式,例如多点触控。
如今,计算机又面临着新的转变:从移动优先转变为人工智能优先。和以前一样,Google 将会努力构想一个能够进行更加自然、无缝的技术交互的世界。如 Google 搜索,它是被建立在对文本和页面的理解能力的基础上的。而现在,通过深度学习技术的革新,机器对图像、照片和视频的理解也逐渐成熟,这在以往都是不能实现的。现在,你的相机有了“视觉”,你能对手机说话,并得到回应——语音与图像对于计算机技术来说已经变得意义重大,其重要性甚至渐渐等同于键盘和多点触控。
一双会说话的“眼睛”
因此,谷歌搭建了全新的AI优先型数据中心,并在 2016 年发布专门为机器学习定制的TPU(张量处理单元)。
所有的这一切都需要相应的计算架构。去年的 I/O,Google 发布了第一代 TPUs,这使得 Google 的机器学习算法能够更快更有效地运行。今天,Google 发布了下一代 TPUs-Cloud TPUs,新版的 TPUs 针对推理和训练进行了优化并且可以处理大量信息。Google 将把 Cloud TPUs 引入 Google Compute Engine,以便公司和开发人员更好地使用。
TPU与CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。事实上,TPU已经部署到了几乎所有谷歌的产品中。不论你使用 Google 搜索、还是与 Google Assistant 对话,甚至在AlphaGo与李世石的围棋大战中,TPU也起到了关键作用。
一般而言,机器学习分为两部分:训练(Train)与应用(Inference)。通过训练来建立神经网络,要求很强大的计算能力;应用则是去完成分辨图片上是猫是狗等具体任务。而 TPU 主要是用来优化应用端的,而训练端目前还是需要使用GPU。比如,谷歌目前每个机器翻译模型,都需要 100 个 GPU 上花一周时间去完成 30 亿个词语的训练。
谷歌发布的Cloud TPU则是同时针对训练和应用两方面。全新的Cloud TPU拥有四个处理芯片,每秒可完成180 tflops计算任务。将 64 个 Cloud TPU 相互连接可组成谷歌称之为Pod的超级计算机,Pod将拥有11.5 petaflops的计算能力(1 petaflops为每秒进行1015次浮点运算)——这对AI领域的研究来说将是非常重要的基础性工具。
Cloud TPU
之所以将其称之为 Cloud TPU 是因为这些全新硬件将加入谷歌云计算平台,并整合进谷歌计算引擎(Google Compute Engine)。谷歌要打造全世界最好的机器学习计算平台,所以也希望为开发者们提供最好、最广泛的硬件选择,从CPU、到 GPU(包括 Nvidia 上周最新发布的 GPU 产品)、再到 TPU。
目前,谷歌已将所有人工智能相关工作全部纳入新建立的Google.ai,目的是集中公司内部所有优势资源与人力来研发真正能造福人类的AI技术。Google.ai将聚焦三个方面:从事最前沿的技术研发、提供最好的软硬件工具、探索AI的实际应用。
此外,谷歌还发布了一个全新版本的TensorFlow,这个专门为移动设备开发的版本名为TensorFlow Lite——这个全新的程序集允许开发者们编写更为简洁的深度学习模型,从而可以在 Android 智能手机等移动设备上运行。
由于谷歌已经开放了众多在 Android 平台上运行的 AI 相关服务,也确实有必要开发一个更为精简、高效的全新架构来满足在移动设备上运行的需要。谷歌将开源 TensorFlow Lite,并在今年晚些时间开放 API 端口。
人人为我,我为人人
©转载请联系本公众号
更多精彩阅读请点击:
IT 战略家
这里不打算迎合任何人的三观
但可以保证提供有深度的思考
把握趋势,洞见未来
长按二维码关注