其他

谷歌开源MobileNets:在移动设备上高效运行的计算机视觉模型

2017-06-15 量子位
吴唯 编译自 Google Research Blog
量子位出品 | 公众号 QbitAI

今早谷歌在自家的科研博客上发文,宣布开源MobileNets——一组移动端优先的计算机视觉模型。通过TensorFlow Mobile,这些模型可以在脱机状态下在移动设备上高效运行。

量子位将原文编译如下:

近几年来,伴随着神经网络不断将视觉识别技术向前推进,深度学习已经为计算机视觉领域的进步贡献了太多太多。而这其中的许多技术,包括对物体、地标、logo和文本的识别等,都是通过云视觉API在联网设备上实现的。

但我们相信,移动设备计算力的不断提升,将可能让用户在脱机状态下随时、随地地接触到这些技术。然而,在设备端和嵌入式应用上的视觉识别面临着诸多挑战——在资源受限的环境下,这些模型必须利用有限的计算力、能耗和空间来保证运行的速度与精确度。

今天我们很高兴地宣布开放MobileNets,一个为TensorFlow所准备、移动端优先的计算机视觉模型包,其设计考虑了设备端和嵌入式应用上首先的资源,力图最大化地提升精确度。MobileNets具有小规模、低延迟、低功耗的特点,为多种不同应用案例中的资源限制进行了参数化设计。和Inception这类主流的大型模型一样,这些模型同样可以用于分类、检测、嵌入、分割等任务。

这次开源包含了MobileNets的模型定义,它在TensorFlow上使用了TF-Slim以及其他16个用于全规模移动项目的预训练ImageNet分类检查点。通过TensorFlow Mobile,这些模型能够在移动设备上高效运行。

 根据你的预期的延迟和模型大小选择合适的MobileNet模型。神经网络在内存和磁盘上占用的空间与参数的数量成正比。网络的延迟和功耗规模与乘积累加运算(MACs)的数字相对应。Top-1和Top-5的准确率是在ILSVRC的数据集上进行测量的。

致谢:

核心贡献者:Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam

特别感谢: Benoit Jacob, Skirmantas Kligys, George Papandreou, Liang-Chieh Chen, Derek Chow, Sergio Guadarrama, Jonathan Huang, Andre Hentz, Pete Warden

Code:

https://github.com/tensorflow/models/blob/master/slim/README.md

Paper:

https://arxiv.org/abs/1704.04861

TensorFlow Mobie的官方指南:

https://www.tensorflow.org/mobile/

【完】

一则通知

量子位正在组建自动驾驶技术群,面向对象为研究自动驾驶相关领域的在校学生或一线工程师~

欢迎大家加量子位(Qbitbot)备注:自动驾驶,申请加入哈~

One More Thing…

今天AI界还有哪些事值得关注?在量子位(QbitAI)公众号对话界面回复“今天”,看我们全网搜罗的AI行业和研究动态。笔芯~

 扫码强行关注『量子位』

追踪人工智能领域最劲内容


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存