其他
复旦大学提出《Meta-FDMixup》解决"跨域小样本学习"中的域偏移问题
关注公众号,发现CV技术之美
论文链接:https://arxiv.org/abs/2107.11978 项目链接:https://github.com/lovelyqian/Meta-FDMixup 论文解读:https://www.bilibili.com/video/BV1xT4y1f7B6?spm_id_from=333.999.0.0
01
1.1 background
1.2 related work
1.3 setting motivation
02
03
3.1 method motivation
原本的source training data 和新引入进行的auxilary data 之间是unbalanced并且disjoint的。unbalanced指的是前者每个类别的样本量充足,而后者每个类别的样本量很少;disjoint的意思是这两个数据的类别集合交集为空。 source和target之间依然存在的domain gap问题。
用mixup模块来混合利用这两个unbalanced并且disjoint的数据; 用disentangle模块来抽取出domain相关的特征和domain无关的特征,最后仅用domain无关的特征进行分类。
3.2 overall framework
feature extractor:用于提取整体视觉特征; disentangle module:从整体视觉特征中拆解domain-irrelevant以及domain-specific features; mixup module:对来自source的training data和auxiliary data进行mixup,以便充分使用各个数据; FSL classifier:根据domain-irrelevant features对episode中的query images进行分类,得到分类结果; domain classifier:判断输入特征来自哪个domain,进而用于监督disentangle module的学习;
用从source training data中随机采样出来的mini-batch + 经典cross entropy 分类loss 对模型进行训练优化; pipeline:minibatch --> feature extractor --> disentangle module,取其中的domain-irrelevant features --> FC classifier --> loss 这个阶段主要是为了获取更好的特征提取器,让第二阶段的meta-train更加容易些;
采用两路episode的采样方式,用meta-learning的方法对模型进行训练优化; pipeline: 1) 随机从source的training data 和auxiliary data 中采样两个episode; 2) 用mixup模块对以的比例对这两个episode的query set进行混合,保持各自的support sets不变,得到source support set, auxiliary support set,以及mixed query set; 3) 对source support set, auxiliary support set,以及mixed query set这三路都各自依次送入feature extractor以及disentangle module中,获取各自的domain-irrelevant features, domain-specific features; 4) FSL tasks:将source support set和mixed query set送入FSL classifier进行分类,得到小样本分类loss , 由于这里mixed query只包含比例原始的source query set,我们认为mixed query属于原来GT的置信度为,因此这部分的最终loss为。同理,将auxiliary support set和mixed query set送入FSL classifier进行分类,得到loss为( 。最终的小样本分类loss就是。 5) domain classification tasks:将三个domain-irrelevant features送入到domain classifier中进行分类,这部分分类希望能够混淆domain classifier,得到loss 。将三个domain-specific features送入到domain classifier中进行分类,这里希望domain classifier能够正确分类feature来自哪个domain,得到loss (具体方法后面会介绍)。最终的domain分类loss就是。 6) 用小样本分类loss + domain分类loss共同优化整个model。
3.3 modules
3.3.1 meta-mixup model
由于小样本分类需要依赖可靠的support set来对query set进行分类,所以这里保持source和auxiliary的support set不变,仅仅混合query set。 此外,混合比例不直接用于改变被混合图像的类别标签,而是认为mixed query属于原本类别的置信度有(虽然从数学上是一致的)。
3.3.2 disentangle module and domain classifier
希望domain-irrelevant features 能够混淆domain classifier 而domain-specific features则能被准备地识别出来自哪个domain 最后只用domain-irrelevant features来用作FSL分类器的输入。
的GT是[0.5, 0.5], 用KL散度进行度量; 的GT是各自的domain label (1或0),用Cross Entropy loss进行度量。
04
4.1 的选择
分别试了 = 5, 10, 15, 20的结果
整体呈上升趋势; 有一个边际递减效应,从0-5的增幅最多,后面的增幅减缓; 考虑到实际结果都现实标注需要产生的代价,所有的setting都选择。
4.2 主结果
4.3 可视化
05
END
欢迎加入「小样本」交流群👇备注:FSL