查看原文
其他

【源头活水】ICLR2021 | 通过干预的无监督解耦表示

“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。

来源:知乎—yearn
地址:https://zhuanlan.zhihu.com/p/261547381
UNSUPERVISED DISENTANGLEMENT LEARNING BY INTERVENTION
论文:
https://openreview.net/pdf?id=yxB3sPaqlCZ
先来一点disentangled representation的基础
https://zhuanlan.zhihu.com/p/140544756


01

Contributions
无监督的深度解耦表示最近引起了广泛的关注,现有的工作大多数都有一个假设:生成因子相互独立;这是一个与事实不符的假设,这篇文章去掉了这个假设,考虑了因子之间相互干扰的情况,并通过人为干预来更好的生成解耦表示。

02

Problems in Existing Works
隐变量相互独立的假设是目前解耦表示很多工作的共同点,也是最大的问题。在现实场景中,独立性假设经常被违背。对于用于对象分类的图像,诸如纹理和颜色等因素会因对象的种类而混淆(例如条纹和黑白是相关的,因为它们在斑马的图像中同时出现)。Is Independence all you need? On the Generalization of Representations Learned from Correlated Data,这篇文章通过大量实验验证了这个问题的存在。我用下面这个例子体现了传统工作失效的原因,如果我们使得azimuth和size两个属性不独立,并且满足  ,显然    越小,二者相关性越大。此时传统方法会将两个属性同时进行编码(一个变化另一个也会变化),而不能很好的将他们分开。这也是当前很多工作想要解决的问题,即计算这两个变量是相关的,我也希望能把他们分开,使得各个latent variable自己控制自己的。


03

METHOD
disentangle就是要找到一组生成因子    来表示高维的输入    ,    之间可能是相互独立的,也可能是相互影响的。本文的目标是学一组    他们之间相互独立,
本文通过人工干预来完成这个目标,将    赋予一个新值,这种方式可以切断它和其他因子的关联,也切断了    对他的影响。我们将干预后的图像分布表示为    。由于干预    不会改变其他因素,所以我们有以下几个要点:
我们干预  得到新图像   ,那么我们有  ,也就是说这个过程是可逆的。这个部分的训练如下图所示,首先对于真实图片  和用它进行重构  我们计算一个重构损失
然后对a图下面那一行,用    重构出来的假的x和上面真的x再计算重构损失  

必存在一个权重矩阵  ,使得  即两个分布是可以线性相互转化的,实际过程类似于GAN,使得操作了某个属性的图片尽可能的像是真实图片。这里是对抗损失(类比GAN)  ,使得

提出了一个(Image Translation Task)刻画disentangle的优劣。对同一个图的同一属性  sample两个值  分别进行干预然后生成两个干预图。然后右侧部分使用上面的干预图预测下面的。如果distangle做的不够好,那么两张图可能在很多地方都存在差别,Translation 的表现就会比较差。这里其实类似于Learning disentangled representations with latent variation predictability中给定义一对图片,预测改变的特征的index。不过这个表现更好

这里使用的disentangle损失,说白了就是重构损失,  就是重构损失
总的损失函数就是他们的和:


04

EXPERIMENTS
从视觉角度上来看,生成的图片看起来确实比较disentangle

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。


“源头活水”历史文章


更多源头活水专栏文章,

请点击文章底部“阅读原文”查看



分享、在看,给个三连击呗!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存