ICCV 2019开源论文 | 捕捉图像DNA——单幅图像下可实现任意尺度自然变换
作者丨武广
学校丨合肥工业大学硕士生
研究方向丨图像生成
图像翻译这个领域的应用是相当的多,图像风格迁移、图像修复、图像属性变换、图像分割、图像模态的转换等都可以统称为图像翻译的任务。本文将介绍一个图像翻译中比较新颖和有趣的应用——图像的重定向,也就是对图像进行自然的放大和缩小而不影响图像的整体,这是区别于简单的图像拉伸和压缩的过程,而是通过图像到图像转换的过程来实现的。
本文将介绍的 InGAN 通过捕获图像的内部色块分布,实现了图像的扩充和拉伸,同时文章也是 ICCV 2019 的 Oral。
论文引入
每个自然图像都有其独特的内部统计数据:构成图像的小块,这些小块在图像中多次出现,从而也可以作为该图像的特异性的表示 [1]。例如,假设根据一个输入图像,希望将其转换为形状,大小和纵横比完全不同的新图像。但是又要求不能扭曲其内部任何元素,将它们全部保留为其原始大小,形状,长宽比以及图像中相同的相对位置。这个过程可以由图 1 所示:
当放大图 1 中的水果摊图像时,每个水果盒中会添加更多的水果,同时保持每个水果的大小相同。反之亦然,当图像变小时,水果的数量变小,同时保持其大小和在图像中的相对位置。此外,请注意,目标图像不一定是矩形的。如果能够捕获并可视化了这种独特的图像特定小块分布,就可以将其映射到不同大小和形状的新目标图像(所有目标图像都具有与输入图像相同的内部小块分布) 。
如何才能做到这一点?满足这些标准首先是要求目标图像中的小块分布与输入图像中多个图像尺度上的小块分布相匹配,分布匹配允许合成不同大小和形状的新目标图像。双向相似性 [2] 是目前实现该转换最先进的方法,双向相似性变换将目标图像限制为仅包含来自输入图像的色块(“视觉一致性”),输入目标应仅包含来自目标的色块(“视觉完整性”)。
因此,在目标图像中不会引入新的伪像,并且也不会丢失任何关键信息。InGAN 的设计目的在双向相似性的基础上进一步实现:
不仅要求所有输入色块都在输出中,而且还需要保持这些色块的频率相同;
通过匹配分布而不是单个补丁;
通过已训练的网络进行一次前向遍历可以生成任何大小/形状/长宽比的目标图像。
这里实现分布的匹配就依赖于生成对抗网络(GAN)来实现了,但是 InGAN 并不是简单的匹配完整图像的分布,而是通过对图像的不同尺度下的分块分布进行匹配,这也正是文章的题目 InGAN: Capturing and Remapping the “DNA” of a Natural Image 的核心,实现这种内部分块分布的学习,可以进一步地理解和应用在超分辨率图像、修复从图像中删除的补丁、从图像中合成纹理等。
总结一下 InGAN 的优势:
InGAN 为各种不同的任务和不同的数据类型提供统一的框架,所有这些都具有一个单一的网络体系结构;
InGAN 可以产生大小,形状和纵横比明显不同的输出,包括非矩形输出图像;
InGAN 是第一个在单个自然图像上训练 GAN(训练过程中只是对一张图像进行训练和学习)。
InGAN框架
InGAN 是如何训练一张图像达到图像重定向的呢?我们先从整体架构上去理解,图 2 展示了 InGAN 的框架:
但是这个过程和 CycleGAN [3] 等"循环一致"是有本质区别的,CycleGAN 中的生成器和判别器是有两路的,也就是由 A→B 和 B→A 两路,然而 InGAN 中是只有一路的,因为 InGAN 的目的是为了学习到图像的内部块,并不是对图像做任何结构和风格的变换。
所以,只是图像的尺度发生了改变,这里用一个生成器就可以实现,作者也将这种设计称之为 Encoder-Encoder 结构。在优化阶段,判别器 D 是一个多尺度的判别器,它会根据对比不同尺度下的真实图像和生成图像的真假,在不同尺度下进行加权得到最后的得分,用于优化对抗损失。
整体架构分析下来可以对整个网络有了一个大概上的了解,这里涉及到的损失函数也很简单,一个是生成对抗损失,另一个就是循环一致损失:
这里采用的生成对抗损失来自于 LSGAN [4],循环一致损失就是重构损失:
总的损失可表示为:
设计细节
如果你只是想了解一下 InGAN 的工作原理的话,上面一节已经大致上解释了,这一部分将对网络的具体设计细节进行讨论。
灵活的生成器
生成器的具体设计如图 3 所示:
整个生成器由三部分组成,用于上下采样和图像特征提取的卷积层、用于图像尺度变换的几何变换层、用于加深图像特征提取的残差层三部分组成。
在图像输入阶段经过 kernel 为 7 的卷积进行 channel 的加深,并得到图像的特征表示 map,接着送入到几何变换层,所谓的几何变换层就是根据目标尺度 T 进行的图像的尺度上的简单转换过程,根据 T 来得到对应于 T 的尺度图像,在训练阶段这个 T 是由 random_size 函数随机产生的,详细的可以参看作者公布的源码。
接着就是三层下采样,kernel 的大小都是 3,尺度都是 0.5,然后在 6 层残差层下加深网络后送到上采样为 2,最后得到 T 尺度的图像的彩色输出。需要强调的是在上下采样阶段,利用了 U-Net 的跳跃连接的思想对特征层进行了前后的联系进一步提高了图像转换中内容和结构的质量,下采样通过 max pooling 实现,上采样都过最近邻方式实现。
当训练完成,在训练阶段尺度 T 就可以人为的指定,从而得到需求下图像的尺度变换。
多尺度判别器
判别器采用的全卷积结构设计,整体结构如图 4 所示:
至于这个多尺度是怎么得到的,这里就涉及到源码下的分析了,作者是通过设计 scale_weight 实现图像的多尺度的判别,设定的多尺度的上限为 99,也就是在图像中进行了 99 个尺度的分布匹配。
实施细节
使用 ADAM 优化器和线性衰减学习率,batch size 设定为 1,对于循环一致损失的超参设定为 0.1,在每次迭代中,T 的参数都是随机采样的,从而导致不同的输出大小,形状和纵横比,在 T 的设计上在最初的时候是变化较小的,随着训练的进行,允许的变形范围在整个训练期间(10k 次迭代)逐渐增大,直到最终覆盖整个所需范围。判别器和发生器中的谱归一化用于除最后一层以外的所有层,Batch Normalization 在大多数 conv 块中使用,在实际事例中加入
实验
在图像的重定向上,InGAN 展示了合理而强大的转换效果:
在纹理合成上也展示了不错的结果:
▲ 图6. InGAN与其它模型的图像纹理合成对比
▲ 图7. InGAN消融实验对比
总结
InGAN 通过对单一图像的内部色块分布进行学习和分布匹配,在内部色块被学习到后可以实现图像的自然拉伸和重定向(可以产生大小,形状和纵横比明显不同的输出,包括非矩形输出图像)等任务,同时这个框架便可适用于这些任务而不需要再去更改。
但是 InGAN 每次只能训练一张图像,这可能有好处也有弊端。好处就是需要的训练集比较小,至于为什么一张图像就能训练网络,这也归功于文中随机变换尺度T的设计。然而每次只能训练一张图像,这样的话当需要处理另一张图像是还需要重新训练网络,这就增加了训练和时间成本了。能否通过设计普适性的预训练模型再通过具体的图像进行微调达到快速处理图像是可以进一步研究的方向。一旦训练成本降低,通过 InGAN 去扩充数据集,去处理数据集都是很不错的方法。
参考文献
[1] A. Buades, B. Coll, and J.-M. Morel. A non-local algorithm for image denoising. In CVPR, volume 2, pages 60–65, 2005. 1
[2] D. Simakov, Y. Caspi, E. Shechtman, and M. Irani. Summarizing visual data using bidirectional similarity. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2008. 1, 4, 5, 7
[3] Zhu J Y, Park T, Isola P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//Proceedings of the IEEE international conference on computer vision. 2017: 2223-2232.
[4] X. Mao, Q. Li, H. Xie, R. Y. K. Lau, and Z. Wang. Least squares generative adversarial networks. In Computer Vision (ICCV), IEEE International Conference on, 2017. 4
点击以下标题查看更多往期内容:
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。
▽ 点击 | 阅读原文 | 下载论文 & 源码