为何微软将FPGA芯片置于其云的核心?
这种芯片还影响这个科技巨头新实施的人工智能计划。
微软的David Chiou。
图片来源:Red Box Pictures图片社的Scott Eklund
微软早已在透露关于新计算架构的一点风声:除了常规微处理器外,这种新架构还更全面、更广泛地使用现场可编程门阵列(FPGA)芯片,驱动其Azure云。不过周一,这个科技巨头透露了关于这种芯片的更多部署细节。
实际上,微软的研究人员表示,将FPGA当作每台服务器的“正门”可加快进程的处理速度,甚至将一些关键任务从服务器的主微处理器芯片上卸载掉。对潜在的企业客户来说,这可能意味着微软必应(Bing)可以基于一系列更广泛的数据源,更迅即地返回更准确的互联网搜索结果,而不增加延迟。
此外,据参与这项工作的两位微软专业人士Derek Chiou 和Sitaram Lanka声称,人工智能应用所需的复杂计算任务有望加快完成。Chiou是微软的合作伙伴硬件工程经理,周一晚些时候他将在台湾召开的技术大会上阐述关于这个话题的研究论文。
这种芯片比以英特尔的X86芯片系列为代表的标准微处理器或中央处理单元(CPU)更灵活,可以用软件来重新编程,根据需要处理不同的任务。这意味着,工作需求变化后,芯片可以实时改动,没必要予以更换。Chiou在接受采访时告诉《财富》杂志,由于在过去的几十年微软与英特尔在X86微处理器设计方面展开合作,它在与同一家公司合作、共同解决FPGA问题。去年,英特尔斥资167亿美元收购了FPGA生产商Altera公司。
Chiou补充道,将FPGA插入到服务器有诸多优点。他解释,举例来说,除了不必有劳CPU就能执行加密、解密和压缩外,它还可以“嗅探进入服务器的每一个数据包”。
Chiou说:“把它放在正门的位置不仅让网络更快速、更安全,还可以处理更多的任务,不需要有劳CPU。这就好比走到银行、来到银行出纳员跟前取钱。你没必要来到银行经理跟前。”
微软一直在内部推出这项技术,如今一些优点已经出现在了必应搜索中。微软的合作伙伴集团工程经理Lanka特别指出,但是对微软外面的人士来说全面的好处在今后六个月左右的时间才会开始显现。
2016年9月20日,微软Compute Fabric团队。
图片来源:Red Box Pictures图片社的Scott Eklund
Chiou特别指出,虽然不可能量化客户从任何一个特定的应用会得到多大的性能提升,但是由于这一额外的硬件帮助,微软本身已看到一些内部的应用运行起来速度要比之前快200倍。
微软、谷歌、亚马逊及其他巨头都在纷纷夯实数据中心基础设施,助力人工智能及其他应用。比如说,谷歌就豪赌其针对特定应用的集成电路:Tensor芯片,这是另一种芯片技术,旨在加快这些应用的处理速度。
被问及灵活的FPGA会不会在数据中心接过更多的任务――可能甚至取代其他类型的芯片,Chiou回复:数据中心会使用最适合处理任何一种特定任务的工具。所以虽然将来可能会更频繁地使用FPGA,但是它们不会淘汰微处理器或专用集成电路(ASIC)。
他说:“这仍然是个不同芯片并存的异构环境。”
云头条编译|未经授权谢绝转载
相关阅读: