降低AI门槛,英特尔加速人工智能落地与创新
在科技创新的发展路途中,开源扮演了重要的角色,积极地影响着技术、产品、产业和市场。如果能基于开源基础设施充分发挥开源软件的功能,那么便能专注于人工智能业务的开发,激发更多的创新活力。英特尔认为,开源基础设施的优势就是它的开放性,这并不仅包括开源本身,开放的设计、开放的开发以及开放的社区都是必要的环节,才能让基础设施真正发挥效用。英特尔持续支持开源社区的发展,通过与软硬件厂商的深入合作不断突破开源技术的创新,大大降低人工智能开发与部署的门槛,加快应用落地与突破。
开源nGraph,化繁为简
2018年3月,英特尔宣布开源面向各种设备和框架的深度神经网络模型编译器nGraph,扩展了深度学习模型的适用性和可移植性。nGraph编译器是用于神经网络的英特尔计算图编译器,能够将深度学习模型转换为可执行的优化函数,该函数可在各种硬件上高效运行,包括英特尔®架构处理器(CPU)、英特尔® Nervana™神经网络处理器(Intel® Nervana™ NNP)、显卡(GPU)和其他后端,大大降低了开发者在把深度学习模型部署到不同的框架和硬件设备中的复杂度。
英特尔人工智能事业部副总裁、人工智能实验室和软件总经理Arjun Bansal曾表示:“对于企业来说,为人工智能解决方案找到合适的技术是一项艰巨的工作,我们的目标是尽可能简化这项工作。通过nGraph编译器,数据科学家可以创建深度学习模型,而无需考虑如何针对不同的框架调整模型。开源,意味着快速方便地获得所需要的工具”。
同时,英特尔的开源nGraph库和编译器套件是最早支持ONNX的工具。2017年9月,微软和Facebook联手推出了开放神经网络交换Open Neural Network Exchange(NNX)格式,英特尔也随即宣布支持ONNX, 携手产业伙伴共同打造ONNX开放生态系统,为开发者在人工智能项目开发的过程中提供更灵活、更适合的工具组合。Open Neural Network Exchange(ONNX)格式允许开发者在不同的框架上转移深度学习模型,提高了框架之间的互操作性。借助Open Neural Network Exchange(ONNX,开放神经网络交换)格式, 开发人员可以在不同的工具之间进行转换,选择最优的工具组合,从而提升创建人工智能和深度学习模型的效率和速度。
开源BigDL,为开发者赋能
英特尔为机器学习和人工智能开发人员提供灵活程度最高的软件集成,让开发者借助各种框架自由创建、使用优化或可扩展的端到端系统。同时,在2016年末,英特尔也开源了基于Apache Spark的分布式深度学习框架BigDL,大大降低了普通大数据用户和数据科学家在使用深度学习进行数据分析和构建人工智能应用时的门槛。
BigDL是一个建立在大数据平台(Hadoop/Spark)之上原生的分布式深度学习库,它提供了在Apache Spark上丰富的深度学习功能,以帮助 Hadoop/Spark成为一个统一的数据分析平台,为整个数据分析和机器学习过程提供比现有框架更加统一和集成化的支持。同时,在Apache Spark和BigDL的基础上又构建了一个大数据分析+AI的平台Analytics Zoo,方便用户开发基于大数据、端到端的深度学习应用。在基于英特尔至强服务器的大规模集群上,利用现有的数据架构基础设施,完全可以使用英特尔开发并开源的BigDL、Analytics Zoo技术,在现有的大数据平台上构建新的大数据分析和人工智能应用,提高资源利用率和端到端的开发和部署效率,同时在端到端的性能上也会有非常大的优势。正如英特尔高级首席工程师、大数据技术全球CTO戴金权所说:“英特尔希望做的是能够更好地提供框架、工具、平台,让大多数的普通工程师、普通用户也能将深度学习、人工智能技术非常方便地应用到他们的生产环境当中。”
借助人工智能的力量,我们能够以前所未有的方式探索自然和宇宙、改变生命和健康、驱动产业的智能升级。英特尔致力于引领人工智能革命,在提供最广泛的人工智能产品组合的同时积极赋能开发者,通过技术开源降低人工智能开发与部署的门槛,方便更多开发者和企业实现人工智能。
/如需转载请留言/