其他
【源头活水】ICCV美文:从过拟合到欠拟合?
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://zhuanlan.zhihu.com/p/242304519
如果大家想查阅ICCV的所有论文,可以点击下面的数据库,不仅可以查看ICCV 2021年的论文,还能看到每篇论文的视频解读、研究溯源、代码链接和自动提取的论文摘要等内容。
O2U-Net: A Simple Noisy Label Detection Approach for Deep Neural Networks. (ICCV, 2019)
https://openaccess.thecvf.com/content_ICCV_2019/papers/Huang_O2U-Net_A_Simple_Noisy_Label_Detection_Approach_for_Deep_Neural_ICCV_2019_paper.pdf
01
02
Pre-training: 使用常规的训练方法在带噪的数据集上训练一个 overfitting 的网络。 Cyclical Training: 通过调整学习率使网络重复从 overfitting 到 underfitting 多次。记录每个样本在多次 cyclical training 过程中的 loss 的平均值,挑选出前 k% 个 loss 平均值小的样本作为“Clean Dataset”。 Training on Clean Data: 最后,我们重新初始化一个新的网络在第二步得到的“Clean Dataset”上训练。
03
loss 这个指标是有效的,但不是全程有效的,是否有更好的指标来代替它或是想办法解决overfitting 这一问题,O2U 感觉就是从这一点出发的。为啥 O2U 能避免loss在后期会挑选噪声样本的情况,因为它是使用另一个模型在 “overfitting to underfitting”整个过程中对样本平均 loss 统计量的情况来筛选样本,而其它方法是使用当前模型对样本的 loss来指导挑选干净样本又反过来学习当前模型,这两者有着本质上的不同。 训练早期的模型辨别噪声样本的能力要比训练后期的模型要强? Early stop是有效的。我过一个实验,保持所有的随机种子不变,尝试过在 label precision 的最高点进行 early stop,即后续使用纯度最高的样本进行后续的训练,测试性能能有效提高。但是,我这是一个有点作弊的行为,就是事先知道了啥时候 label precision 会达到最高点,那么是否可以通过模型自身的一些自监督信息来告诉自己啥时候 early stop ?
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
多尺度的CityNeRF: Building NeRF at City Scale
小样本分割中的密集高斯过程
元学习应用与Model-Agnostic Meta-Learning (MAML)介绍
MetaFormer: transformer真正work的地方在哪里?
使用Transformer进行红外-可见光图像融合
GNN超越一维WL图同构测试?GraphSNN来了
熬了一晚上,我从零实现了Transformer模型,把代码讲给你听
NeurIPS 2020 | 从因果关系来看小样本学习
CLIP4Clip: CLIP 再下一城,利用CLIP实现视频检索
Graph: 表现再差,也不进行Pre-Training? Self-Supervised真香!
AdaViT: Adaptive Tokens for Efficient Vision Transformer
连接文本和图像的第一步:CLIP
CV预训练MAE(Masked AutoEncoder)
[Meta-Learning]对Reptile的深度解析
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!