编者按:今日,微软和Facebook宣布将推出Open Neural Network Exchange(ONNX,开放神经网络交换)格式,这是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行迁移。
ONNX是迈向开放生态系统的第一步,AI开发人员可以轻松地在最先进的工具之间转换,并选择最适合他们的组合。ONNX的应用能够弥合实验和生产过程中框架特征不一致产生的差异,让AI开发人员可以选择符合项目当前阶段的框架并实现自主切换。本文转载自公众号“新智元”,点击阅读原文可查看英文。
微软一直以来坚持一个信念:将AI传递给更多的人,让每个人都能够亲身感受到技术进步带来的便利。因此,我们为大家提供很多行之有效的平台和工具,包括微软认知工具包,构建深层神经网络的开源框架,以促进AI的普及进程。我们还积极与其他组织展开合作,共同探讨行业问题、寻求解决方案。
今天,我们高兴地宣布,微软和Facebook一起推出Open Neural Network Exchange (ONNX,开放神经网络交换) 格式。 ONNX为AI框架生态系统中的互操作性和创新提供了共享的模型表征。Cognitive Toolkit、Caffe2和PyTorch都将支持ONNX。微软和Facebook共同开发了ONNX这一开源项目,并希望社区能够帮助其不断进化。
什么是ONNX表征?
Cognitive Toolkit和其他框架提供了使开发人员更容易构建和运行用来表征神经网络的计算图的界面。虽然它们提供的功能类似,但是每个框架都有自己的格式对这些图进行表征。 ONNX表征有以下主要优点:
框架互操作性:开发人员可以更轻松地在框架间转换,并为手头的任务选择最佳工具。每个框架都针对具体特性进行了优化,如快速训练,支持灵活的网络架构,在移动设备上进行推理等等。许多时候,研发过程中最重要的特性与生产环节最重要的特性是不同的。这导致开发人员在框架之间进行模型转换时,会因框架使用不正确或明显延迟而使得效率降低。使用ONNX表征的框架简化了这一点,使得开发人员更加灵活。
共享优化:硬件供应商对神经网络性能的优化可以通过定位ONNX表征来同时影响多个框架。优化经常需要被分别整合进入每个框架,这一过程很费时间。ONNX 表征使得优化更容易实现,从而覆盖更多开发人员。
ONNX技术总结
ONNX提供了可扩展计算图模型的定义,以及内置运算器和标准数据类型的定义。起初,我们专注于推理所需的能力(评估)。
每个计算数据流图被构造为形成非循环图的节点列表。节点具有一个或多个输入和输出。每个节点是对一个运算器的调用。该图还包含记录其目的、作者等信息的元数据。
运算器在图外部实现,但是内置运算器的集合在框架之间是可移植的。支持ONNX的每个框架都将提供这些运算器在适用数据类型上的实现。
ONNX的可用性
ONNX代码和文档的初始版本现在已经在GitHub(https://github.com/onnx/onnx)上开源。我们将积极开展基于ONNX的工作,即将推出的Cognitive Toolkit新版本将支持ONNX。我们还计划和Facebook一道,提供部署参考、示例、工具等。
ONNX表征形成了开放生态系统的基础,使AI更容易获取并富有价值。开发人员可以为其任务选择合适的框架,框架作者可以专注于创新,硬件供应商可以简化优化流程。我们希望社区能够支持ONNX,以实现这一令人兴奋的愿景。
你也许还想看:
● 亚马逊,谷歌,Facebook,IBM和微软:为了AI,是的,我们在一起了
感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。