CVPR 2021接收论文:AdCo基于对抗的对比学习
©作者|王虓
学校|普渡大学PhD
研究方向|自监督
AdCo 仅仅用 8196 个负样本(八分之一的 MoCo v2 的负样本量),就能达到与之相同的精度。同时,这些可直接训练的负样本在和 BYOL 中 Prediction MLP 参数量相同的情况下依然能够取得相似的效果。这说明了在自监督学习时代,通过将负样本可学习化,对比学习仍然具有学习效率高、训练稳定和精度高等一系列优势。
论文标题:
AdCo: Adversarial Contrast for Efficient Learning of Unsupervised Representations from Self-Trained Negative Adversaries
论文链接:
https://arxiv.org/abs/2011.08435
代码链接:
https://github.com/maple-research-lab/AdCo
众所周知,负样本和正样本是对比学习的关键。进一步而言,负样本的数量和质量对于对比学习又是其中的重中之重。在 BYOL [1] 提出后,对于是否需要负样本也引发了很多讨论,本文从对抗的角度去探索负样本,也揭示了负样本的本质和 BYOL 在去除负样本之后仍然能够达到非常好的效果的原因。
要不要负样本?
首先,去年 DeepMind 提出的无监督模型 BYOL [1] 的一个突出特点是去掉了负样本,在讨论 AdCo 前,一个很核心的问题就是在自监督时代,我们究竟要不要负样本?
首先,从比较纯粹的实用主义角度来说,MoCo V2 [2] 这类基于负样本的对比学习方法,自监督训练的时间都是比 BYOL 较少的。这点不难理解,MoCo V2 不需要基于 Global Batch Normalization (BN)(GPU 之间需要通讯),所以从速度来说仅仅需要 BYOL 约 1/3 的时间。
另一方面,类似 MoCo V2 的方法一个比较麻烦的地方是要不断得维护一个负样本的队列。但是,用一组负样本做对比学习,从训练性能的角度来说,从前诸多的实验来看可能更稳定,毕竟多个负样本的对比可以提供更多的样本的分布信息,比 BYOL 只在单个图像的两个变换增强样本得到的特征上做 MSE 从训练的角度来说可以更稳定。同时 memory bank 维持的负样本并不需要梯度计算,所以相关计算量可以忽略不计。
因此,我们认为负样本在对比学习里仍然是一个值得探索的方向。但需要解决如何提高负样本的质量和使用效率的问题。一个比较好的想法是我们能不能不再依赖一个被动的维护一个负样本队列去训练对比模型,而是直接通过主动学习的方法把负样本当作网络参数的一部分去做 end-to-end 的训练
AdCo vs. BYOL
从模型参数的角度来说,这个额外的 Predictor Layer 相当于一般对比学习里用到的负样本,只不过前者是直接通过反向传播训练得到的,而后者在 MoCo V2 [2] 和 SimCLR [3] 里是通过收集过去或者当前的 batch 中的特征得到的。
那么,一个自然的问题就是,负样本能够也能像预测器一样通过训练出来吗?如果可以,就意味着对比学习中的负样本也可以看作是模型的一部分,并且可以通过训练的方法得到,这就给出了一种更加直观优美的方法来构造负样本。
遗憾的是,直接去最小化 contrastive loss 并不能用来训练负样本,因为这样得到的是远离所有 query 样本的负样本,因此我们在 AdCo 中采取了对抗学习的思路。
实验发现,在同样的训练时间、minibatch 大小下,AdCo 的精度都会更高。这说明了,AdCo 比其他的自监督方法就有更高的训练效率和精度。这种提升来自对负样本更有效的更新迭代。
同时,在下游检测和分类任务中,我们相比过往自监督方法和全监督方法都有显著的提升:
参考文献
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。