百度发布移动端深度学习框架MDL,iOS和Android都支持
夏乙 发自 凹非寺
量子位 出品 | 公众号 QbitAI
在移动设备上本地运行深度学习模型,已经成了一股潮流,大公司纷纷推出相关框架,想框住一批移动开发者。
今天,百度在GitHub上公开了一个移动端深度学习框架mobile-deep-learning(MDL),可以在移动设备上简单快速部署卷积神经网络(CNN)。
MDL的特点是体积小、速度快,还有iOS GPU版本。它的体积是armv7 340k+,,用iOS GPU运行MobileNet需要40毫秒,运行squeeznet需要30毫秒。
地址:https://github.com/baidu/mobile-deep-learning
用MDL能实现什么功能呢?主要是图像识别和目标检测,比如说手机百度的拍照搜图功能。
据百度介绍,手机百度App里现在用的就是这个框架。打开手机百度,点击拍照搜索按钮,接下来识别图像就靠MDL了。
为了让用户直观地看到框架效果,百度还编译打包了iOS和Android的安装文件,可以扫码安装:
△ 安装iOS-MobileNet
△ 安装Android-GoogLeNet
MDL是用来在移动端部署CNN的,并不支持神经网络的训练。现在,这个框架支持将Caffe模型转换成MDL模型。
百度图像搜索客户端工程师李永会在InfoQ撰文介绍MDL说,这个框架包括模型转换模块(MDL Converter)、模型加载模块(Loader)、网络管理模块(Net)、矩阵运算模块(Gemmers)及供 Android 端调用的 JNI 接口层(JNI Interfaces),结构如下:
其中负责将Caffe模型转化成MDL模型的,就是模型转换模块。
根据百度在GitHub上的介绍,MDL具有如下特性:
一键部署,脚本参数就可以切换ios或者android
支持iOS gpu运行MobileNet、squeezenet模型
已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型
体积极小,无任何第三方依赖。纯手工打造。
提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下
与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化
NEON使用涵盖了卷积、归一化、池化所有方面的操作
汇编优化,针对寄存器汇编操作具体优化
loop unrolling循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作
将大量繁重的计算任务前置到overhead过程
想要更深入地了解MDL,还是得去GitHub亲自看代码:https://github.com/baidu/mobile-deep-learning
— 完 —
加入社群
量子位AI社群9群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot3入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot3,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI
վ'ᴗ' ի 追踪AI技术和产品新动态