论文推荐|[ICCV 2019]基于形状匹配对抗式生成网络的可控艺术字体风格迁移(有源码)
本文简要介绍IEEE ICCV 2019录用论文“Controllable Artistic Text Style Transfer via Shape-Matching GAN”的主要工作。该论文主要针对文字风格化问题,提出了一种双向结构映射框架,可以将输入风格图的结构和纹理特征渲染到目标文字上,从而获得艺术字,并能调节艺术字的变形程度,取得了文字可识别性与文字艺术效果上的平衡。
艺术字在现实生活中有着广泛的应用,例如广告平面设计、海报设计、PPT制作等等,使用艺术效果更强烈的文字作为标题,能够吸引注意,更加突出其表达的内容。对于用户输入的任意一张风格图,例如火焰而言,想要生成对应的火焰文字,势必要对文字的形状做出调整,使之边缘部分看上去更像舞动的火焰。但是,过大的文字变形会使得文字难以辨认,失去其本身所乘载的价值。因此,我们需要在文字的可识别性和艺术性上取得平衡。而现有的图像风格化工作[1]-[3]以及专门针对文字的风格化工作[4][5]都没有考虑到这一点。
图 2是这篇文章提出的ShapeMatchingGAN的整体结构。由于风格的复杂性,本文方法采取模块分解的思路,将结构与纹理分开处理。网络主要分为三个部分,分别是Sketch Module, Glyph Network和Texture Network。而双向结构匹配的框架主要分为两个部分,反向匹配和正向匹配。
在反向匹配阶段,网络主要利用Sketch Module将文字的形状特征迁移到风格图的主要结构上,获得简化的结构图,与风格图、风格的结构图一起,组成训练集。其中,风格的结构图是使用抠图的方式得到的前景Mask。下图展示了Sketch Module的网络结构。网络使用包含高斯卷积的Smoothness Block将结构图与文字图映射到同一个模糊空间,然后训练Transformation Block的去模糊模块,将模糊的文字图映射回原文字,从而学会从模糊的边缘重建文字的形状特征。当输入结构图时,Transformation Block就能将其结构简化。另外,通过调整高斯模糊的模糊程度,就能控制输出的简化结构图的简化程度,从而为后续的形变控制提供对应的成对数据。最后,只有一张风格图难以训练网络,所以采用随机裁剪的方式,将图片裁剪成图像块,生成足够的训练集。
图3 Sketch Module框架图
在正向匹配阶段,Glyph Network学习将不同简化程度的结构图映射回原始结构图,从而学会为简单的边缘增添风格图的结构特征,而Texture Network学习将结构图映射回风格图,从而学会为黑白图片渲染风格的纹理信息。
Texture Network的任务相对简单,是一个图像到图像的一对一映射过程。论文采用经典的Image-to-image Translation的网络来训练这个任务。
Glyph Network的任务相对困难,是一个多对一的映射。为了防止网络仅仅学会记住输出图片的样子,而不去学习映射过程,文章提出了可控的残差模块,代替中间层的标准残差模块。可控的残差模块由两个标准的残差模块线性组合而成,其加权系数由文字的变形程度
ShapeMatchingGAN首次研究了文字形变程度可控的文字风格化问题,并且提出了一个有效的基于双向结构匹配的解决框架。
ShapeMatchingGAN提出了一个Sketch Module将文字的形状特征迁移到风格图的形状上,从而将单张风格图扩展为不同简化程度下的成对的训练图片,为单张图像风格化的学习提供了有力的工具。
ShapeMatchingGAN提出了一种可控的残差模块,能够通过对特征空间进行插值,达到对网络输出结果进行控制的目的,使得用户能够通过制定变形程度参数,快速地获得对应变形程度的艺术字。
ShapeMatchingGAN论文网站:
https://williamyang1991.github.io/projects/ICCV2019/SMGAN.html
ShapeMatchingGAN论文代码:https://github.com/TAMU-VITA/ShapeMatchingGAN
T-Effect论文网站:http://www.icst.pku.edu.cn/struct/Projects/TET.html
UT-Effect论文网站:http://www.icst.pku.edu.cn/struct/Projects/UTS.html
TE141K字效数据库:https://daooshee.github.io/TE141K/
原文作者:Shuai Yang, Zhangyang Wang, Zhaowen Wang, Ning Xu, Jiaying Liu and ZongmingGuo
编排:高 学
审校:殷 飞
发布:金连文
(扫描识别如上二维码加关注)