查看原文
其他

学界 | FAIR 提出常见 GAN 训练方法的替代方法:WGAN

2017-02-01 机器之心

本文选自 arxiv

作者:Martin Arjovsky , Soumith Chintala , and L´eon Bottou

机器之心编译

参与:微胖、老红


论文的主要贡献


在第二部分中,我们提供了关于地球移动(EM) 距离与学习分布中使用的流行概率距离和偏差相比较的综合理论分析。


在第三部分中,我们定义了一种叫作 Wasserstein-GAN 形式的 GAN,它可以最小化一个合理且有效的近似 EM 距离;并且,我们在理论上证实了这种相应的优化问题是合理的。


在第四部分中,我们的经验表明,WGANs 能解决 GANs 的主要训练问题。特别值得注意的是,WGANs 在训练鉴别器和生成器的过程中不需要保持严格的平衡;并且,WGANs 也不需要一套精心设计的网络结构。同时, GANs 中很典型的模式下降现象也得到了大幅减少。WGANs 最引人注目的实用优势之一是能够通过将鉴别器的最优化训练来不断评估 EM 距离的能力。 绘制这些学习曲线不仅对调试和超参数搜索有用,而且也与观察到的样本质量非常强地相关。


结论


我们提出一个新算法 WGAN——一个常见 GAN 训练方法的替代方法。我们表明,这个模型可以提高学习稳定性(the stability of learning),避免诸如模式崩溃(mode collapse)这类问题,还可以提供有意义的学习曲线,它对调试和超参数(hyperparameter)搜索有用。不仅如此,我们也表明,对应的优化问题是可靠的,也做了大量理论工作,强调深度连接到其他概率分布之间距离的重要性(extensive theoretical work highlighting the deep connections to other distances between distributions)。


WGAN 模型的 pytorch 代码实现


https://gist.github.com/soumith/71995cecc5b99cda38106ad64503cee3


论文链接:https://arxiv.org/pdf/1701.07875v1.pdf




©本文为机器之心编译,转载请联系本公众号获得授权。

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:editor@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存