查看原文
其他

业界 | 谷歌开放Inception-ResNet-v2:一种新的图像分类卷积神经网络模型

2016-09-01 深度学习世界



选自 Google Research

作者: Alex Alemi

机器之心编译

参与:李亚洲


昨天,谷歌宣布开放 TF-Slim,这是一个在 TensorFlow 中定义、训练、和评估模型的轻量软件包,同时它还能对图像分类领域中的数个有竞争力的网络进行检验与模型定义。今天,谷歌再次宣布开放 Inception-ResNet-v2,一个在 ILSVRC 图像分类基准上取得顶尖准确率的卷积神经网络。文中提到的论文可点击「阅读原文」进行下载。


为了在该领域取得更多进展,今天我们非常高兴的宣布开放 Inception-ResNet-v2,这是一个在 ILSVRC 图像分类基准上取得顶尖准确率的卷积神经网络。Inception-ResNet-v2 是早期发布的 Inception V3 模型的变体,该模型借鉴了微软 ResNet 论文中的思路。具体内容可在我们的论文:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 中看到。


残差连接(Residual connections )允许模型中进行 shortcut,也使得研究员能成功的训练更深的神经网络从而产生更好的性能。这也使得 Inception 块的极度简单化成为可能。下图对比了这两个模型架构:



Inception V3 图解



Inception-ResNet-v2 的图解


在第二张图解的顶端,你可以看到全部的网络拓展,可以注意到该网络比之前的 Inception V3 要深得多。主图的下面是更简单阅读同一网络版本的方式,里面重复的残差块是被压缩了。注意,里面的 Inception 块被简化的,比先前的 Inception V3 包含更少的并行塔 (parallel towers)。


Inception-ResNet-v2 架构比之前的前沿模型更加准确。下表报告了在基于单类图像的 ILSVRC 2012 图像分类基准上的 Top-1 和 Top-5 的准确度检验结果。此外,该新模型相比于 Inception V3 大约只需要两倍的存储和计算能力。



结果援引于 ResNet 论文


举个例子,Inception V3 和 Inception-ResNet-v2 模型在识别犬种上都很擅长,但新模型做的更好。例如,旧模型错误报告右图中的狗是阿拉斯加雪橇犬,而新的 Inception-ResNet-v2 模型准确识别了两张图片中的狗的种类。



阿拉斯加雪橇犬(左),西伯利亚爱斯基摩狗(右)


为了让人们能立即进行试验,我们也发布了 Inception-ResNet-v2 模型的一个预训练案例作为 TF-Slim 图像模型库的一部分。


如果想进行试验,这是如何训练、评估或微调网络的指导:https://github.com/tensorflow/models/blob/master/slim/README.md


©本文由机器之心编译,转载请联系本公众号获得授权。




点击“阅读原文”进入科技头条下载

↓↓↓

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存