其他

百度发布移动端深度学习框架MDL,iOS和Android都支持

2017-09-25 专注报道AI 量子位
夏乙 发自 凹非寺
量子位 出品 | 公众号 QbitAI

在移动设备上本地运行深度学习模型,已经成了一股潮流,大公司纷纷推出相关框架,想框住一批移动开发者。

今天,百度在GitHub上公开了一个移动端深度学习框架mobile-deep-learning(MDL),可以在移动设备上简单快速部署卷积神经网络(CNN)。

MDL的特点是体积小、速度快,还有iOS GPU版本。它的体积是armv7 340k+,,用iOS GPU运行MobileNet需要40毫秒,运行squeeznet需要30毫秒。

地址:https://github.com/baidu/mobile-deep-learning

用MDL能实现什么功能呢?主要是图像识别和目标检测,比如说手机百度的拍照搜图功能。

据百度介绍,手机百度App里现在用的就是这个框架。打开手机百度,点击拍照搜索按钮,接下来识别图像就靠MDL了。

为了让用户直观地看到框架效果,百度还编译打包了iOS和Android的安装文件,可以扫码安装:

 安装iOS-MobileNet

 安装Android-GoogLeNet

MDL是用来在移动端部署CNN的,并不支持神经网络的训练。现在,这个框架支持将Caffe模型转换成MDL模型。

百度图像搜索客户端工程师李永会在InfoQ撰文介绍MDL说,这个框架包括模型转换模块(MDL Converter)、模型加载模块(Loader)、网络管理模块(Net)、矩阵运算模块(Gemmers)及供 Android 端调用的 JNI 接口层(JNI Interfaces),结构如下:

其中负责将Caffe模型转化成MDL模型的,就是模型转换模块。

根据百度在GitHub上的介绍,MDL具有如下特性:

  • 一键部署,脚本参数就可以切换ios或者android

  • 支持iOS gpu运行MobileNet、squeezenet模型

  • 已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型

  • 体积极小,无任何第三方依赖。纯手工打造。

  • 提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下

  • 与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化

  • NEON使用涵盖了卷积、归一化、池化所有方面的操作

  • 汇编优化,针对寄存器汇编操作具体优化

  • loop unrolling循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作

  • 将大量繁重的计算任务前置到overhead过程

想要更深入地了解MDL,还是得去GitHub亲自看代码:https://github.com/baidu/mobile-deep-learning


加入社群

量子位AI社群9群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot3入群;


此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。


进群请加小助手微信号qbitbot3,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存