Soft Sampling:探索更有效的采样策略
加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!
同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。点击文末“阅读原文”立刻申请入群~
陀飞轮:复旦大学研究生在读,研究方向是目标检测、分割、跟踪
Anchor-based的目标检测器通过anchor来得到一系列密集的候选框,然后按照一定阈值将候选框分成正样本(前景)和负样本(背景),最后按照一定的采样策略来进行训练。目标检测中广泛采用的采样策略是随机采样(正样本和负样本按照一定比例随机采样),然而,随机采样并不能保证能够选取到更有价值的样本(使检测器更鲁棒)。对于目标检测器来说,如何得到更有价值的样本(或者说什么样的样本更有价值),仍然是一个亟待解决的问题。
在探索更有效的采样策略的过程中,产生了两类方法:
Hard Sampling:从所有候选样本中选择子集来训练模型。(包括hard negative mining、OHEM、IoU-balanced Sampling等等)
Soft Sampling:为所有候选样本安排不同的权重值。(包括Focal Loss、GHM、PISA等等)
本文主要介绍Soft Sampling的采样策略(包括Focal Loss、GHM和PISA),且只涉及Soft Sampling部分,其他细节就不具体展开了~~
GHM可以看成是Focal Loss的升级版,而PISA是另外一种Soft Sampling的思路。
1.Focal Loss
这篇文章鼎鼎大名,获得了2017年ICCV最佳学生论文奖,文章中提出的RetinaNet是最近流行的anchor-free检测器的标配,focal loss的提出引发了Soft Sampling研究的热潮,后面对focal loss的分析写的很出彩,附录也值得一读,我觉得GHM可能是受到了Focal Loss附录的启发,总而言之,值得精读几遍~~(一顿吹,哈哈哈)。
Motivation
作者提出前景和背景类别的极度不平衡是造成单阶段检测器精度差的主要原因。
类别的不平衡会产生两个问题:
1.大量容易负样本(不提供有用的学习信息)会导致训练过程无效。
2.大量容易负样本产生的loss会压倒少量正样本的loss(即容易负样本的梯度占主导),导致模型性能衰退。
作者提出Focal Loss来处理类别不平衡问题。
Cross Entropy
首先定义二分类的cross entropy (CE) loss为:
上式的
并且重写cross entropy (CE) loss为
预测值和标签相近,loss就低;预测值和标签远离,loss就高。
Balanced Cross Entropy
处理类别不平衡的一般方法为引入权重因子
Focal Loss Definition
虽然
形式上,在cross entropy loss前面添加一个调制因子
focal loss有两个性质:
1.当样本错误分类时,
2.聚焦参数
直观的来看,调制因子能够减少容易样本的loss,并且扩大得到低loss值的样本范围。当调制因子增加时,会增加错误分类样本的重要性。
实际使用时,使用的是α-balanced变体的focal loss:
作者还从实验中发现,focal loss的形式其实不重要。在附录中,作者还考虑了focal loss的其他形式,并且证明其他形式同样有效。
focal loss在实际使用中还有两个重要的小细节:
1.一张图片总的focal loss是对~100K的anchors求focal loss的和得到的,然后通过一个gt box的anchors数量进行归一化。因为大量的anchors是容易负样本,在focal loss下得到的loss值非常小,如果用所有anchors的数量进行归一化,会导致归一化后的loss值非常小。
2.当只使用
Analysis of the Focal Loss
为了更好的理解focal loss,作者仔细分析了loss的经验分布。采用默认的ResNet101,600输入,
正样本在不同
而负样本在不同
从以上分析可以看出,FL可以有效地降低容易样本的影响,将所有的注意力集中在困难样本上。
Focal Loss*
focal loss具体形式并不是关键。作者提出了另外一种focal loss的形式能够取得可比较的结果。
作者首先考虑与上文有所不同的CE和FL的形式。定义数值
使用
有两个参数
蓝色的线表示AP大于33.5的有效设置。如图所示,容易样本(
所有loss函数,随着预测置信度的增加梯度趋向于-1或者0。然而,当
2.GHM
由Focal Loss附录的图可以看出,当梯度绝对值越大时,loss值也越大(即梯度和困难样本存在某种关系),这一点可能启发了GHM的工作。为了降低复杂度,使用了unit region approximation,该部分不具体展开了。
Motivation
目标检测器中存在着两个问题:正负样本的不平衡和难易样本的不平衡。
Focal Loss虽然部分解决了这两个问题,但是Focal Loss采用了2个超参数,需要大量实验进行调参。
如果从整体来看,大量负样本通常是容易样本,大量正样本通常是困难样本,因此,两种不平衡可以粗略的归结为属性不平衡(或者说类别不平衡)。
作者指出类别的不平衡可以归结为难度的不平衡,难度的不平衡可以归结为梯度范数分布的不平衡。
可以通过梯度范数分布来表示不同属性的不平衡。为了方便起见,将关于梯度范数的样本密度称为梯度密度。梯度范数非常小的样本占据着相当大的密度。虽然容易样本对于全局梯度的贡献少于困难样本,但是大量容易样本总的贡献压倒了少量困难样本总的贡献。另外,作者还发现梯度范数非常大的样本的密度略大于介于中间的样本的密度。作者认为这些非常困难的样本可以当作异常样本,因为当模型稳定时,这些异常样本仍然存在。这些异常样本可能影响模型的稳定性,因为异常样本的梯度可能和其他样本的梯度有巨大差异。如果收敛模型被迫去学习如何更好地对这些异常样本进行分类,那么会导致其他样本分类精度的衰退。
通过上述分析,作者提出一个梯度协调机制(gradient harmonizing mechanism简写为GHM)来有效训练检测器,该梯度协调机制可以在训练过程中调整不同样本的梯度贡献。GHM首先对梯度密度相似的样本的数量进行统计,然后根据梯度密度在各样本的梯度上附加一个协调参数。利用GHM进行训练时,容易样本产生的大量累积梯度可以很大程度上降低权值,另外异常值也可以相对降低权值。最终导致每种样本的贡献会趋于平衡,训练过程会更加有效和稳定。
实际中,梯度的修改可以通过重新设计损失函数来等效地实现,我们将GHM嵌入到分类损失中,该分类损失被称为GHM-C loss。 这种损失函数不需要超参数进行调整。 由于梯度密度是一个统计变量,取决于小批量的样本分布,所以GHM-C是一种动态loss,可以适应每个批次的数据分布变化以及模型的更新。 为了显示出GHM的通用性,在回归分支中利用它来构成GHM-R loss。
Cross Entropy
首先定义二分类的cross entropy (CE) loss为:
其中
设x为模型的直接输出,于是可将
Gradient Density
梯度密度函数定义如下:
其中
接着定义梯度密度协调参数为:
GHM-C Loss
通过将
从图中可以看到,Focal Loss和GHM-C有相似的趋势,这说明超参数最优的Focal Loss与梯度均匀协调的GHM曲线相似。另外,GHM-C比起Focal Loss多了一个优点:降低异常样本的权值。
GHM-R Loss
将回归分支预测得到的参数化偏移量定义为
其中
令
所有
为了方便的将GHM用到回归loss上,作者将SL1 loss修改为更加优雅的形式:
ASL1 loss和SL1 loss共享相同的属性:当d的绝对值比较小时,近似为L2 loss,当d的绝对值比较大时,近似为L1 loss。ASL1 loss处处可导连续,而SL1 loss在
梯度范围为
定义
从图中可以看出,存在大量的异常样本,因为回归只对正样本进行,所以分类和回归之间的差异趋势是合理的。
作者认为,在回归中,并不是所有“容易样本”都不重要。 分类中的容易样本通常是具有非常低的预测概率的背景区域,并且肯定会被排除在最终的候选之外。 因此,这种样本的改善对精度几乎没有影响。 但是在回归中,一个容易样本仍然偏离了gt的位置。 更好地预测任意样本会改善最终候选框的质量。 此外,先进的数据集更加关注定位的精度。通过提高容易样本的权值和降低异常样本的权值,GHM-R loss能够调整容易样本和困难样本对回归的影响。
3.PISA
PISA跳出了Focal Loss的思路,认为应当从mAP这个指标出发,来设计采样策略。该论文分析部分丝丝入扣,值得仔细推敲。
Motivation
虽然随机采样和hard sampling简单且广泛采用,但不一定是训练有效探测器的最佳采样策略。一个开放的问题是:用来训练目标探测器的最重要的样本是什么?
作者揭示了设计采样策略时需要考虑两个重要方向:
1.样本不应该被认为是独立的和同等重要的。基于区域的目标检测是从大量候选框中选取一小部分边界框,以覆盖图像中的所有目标。因此,不同样本的选择是相互竞争的,而不是独立的。一般来说,检测器更可取的做法是在确保所有感兴趣的目标都被充分覆盖时,在每个目标周围的边界框产生高分,而不是对所有正样本产生高分。作者研究表明关注那些与gt目标有最高IOU的样本是实现这一目标的有效方法。
2.目标的分类和定位是有联系的。准确定位目标周围的样本非常重要,这一观察具有深刻的意义,即目标的分类和定位密切相关。具体地,定位好的样本需要具有高置信度好的分类。
受上述研究的启发,作者提出了Prime Sample Attention(PISA),这是一种简单而有效的方法,用于对区域进行采样和学习目标检测器,作者将那些起着更重要作用的样本作为主要样本。 具体而言,定义IoU分层局部排序(IoU Hierarchical Local Rank简写为IoU-HLR)来对每个小批量中的样本进行排序。 该排序策略将每个目标周围的最高IoU的样本放置在排序列表的顶部,并通过简单的权值重标定方案将训练过程的重点引导到排序列表的顶部。 作者还设计了分类感知的回归损失来共同优化分类和回归分支。 具体地,这个loss将抑制掉那些回归loss大的样本,从而加强了对主要样本的注意。
Prime Samples
引入Prime Samples的概念,指那些对目标检测性能有重大影响的样本。具体地,作者通过回顾mAP指标来研究不同样本的重要性,研究显示每个样本的重要性取决于它和gt的IoU。因此,作者提出一种新颖的IoU-HLR排序策略,作为一种评估重要性的定量方式。
A Revisit to mAP
给定一个带标注gt的图片,当边界框满足以下两个条件时,标记为正样本。
1.边界框和最近的gt的IoU大于阈值
2.如果gt没有IoU大于阈值的边界框,则选择IoU最大的边界框
剩余没有标记的边界框作为负样本。
mAP指标揭露了对于目标检测器来说更重要样本的2个准则:
1.在所有和gt目标重合的边界框中,IoU最高的边界框时最重要的,因为它的IoU值直接影响召回率。
2.所有不同目标的最高IoU边界框中,具有更高的IoU的边界框更加重要,因为它是随着
IoU Hierarchical Local Rank (IoU-HLR)
基于上述分析,作者提出了IoU-HLR来对小批量边界框样本的重要性进行排序。这个排序是以层次的方式计算的,它既反映了局部的IoU关系(每个ground truth目标周围),也反映了全局的IoU关系(覆盖整个图像或小批图像)。值得注意的是,不同于回归前的边界框坐标,IoU-HLR是根据样本的最终定位位置来计算的,因为mAP是根据回归后的样本位置来计算的。
我们首先将所有的样本根据它们最近的gt目标分成不同的组。接下来,我们根据每个组的IoU和gt按降序排列样本,得到IoU-LR。随后,我们使用相同的IoU-LR采样,并按降序排序。具体来说,所有top1的IoU-LR样本都被收集和排序,然后是top2、top3等等。这两个排序阶段导致了一个批次的所有样本之间的线性顺序,即IoU-HLR。
IoU-HLR遵循上述两个准则。首先,它将那些局部排序较高的样本放在前面,这些样本对于每一个单独的gt目标来说是最重要的。其次,在每个局部组内,根据IoU对样本进行重新排序,这符合第二个准则。值得注意的是,那些排在列表前面的样本,通常能够确保高精度,因为它们直接影响召回率和精确度,尤其是当IoU阈值较高时;在实现高检测性能时,列表后面的样本就不重要了。
在相同的情况下(如总损失减少10%),增加IoU-HLR下top5和top25的样本的得分,并分别用虚线和点线绘制PR曲线。结果表明,只关注最重要的样本比平等关注更多的样本要好。
图中绘制出了random、hard、prime samples的分布。可以观察到,prime samples往往同时有高IoU和低分类loss,而hard samples往往有更高的分类loss并沿IoU轴分布范围更广。表明这两个采样策略具有本质上不同的特性。
Learn Detectors via Prime Sample Attention
作者提出Prime Sample Attention,一种简单且有效的采样策略,该采样策略将更多的注意力集中到主要样本上。PISA由两个组件组成:基于重要性的样本权值重标定(Importance- based Sample Reweighting简写为ISR)和分类感知的回归损失(Classification Aware Regression Loss简写为CARL)。PISA在训练过程中更关注主要样本,而不是平等对待所有样本。首先,主要样本的loss权值大于其他样本,因此分类器倾向于对这些样本预测更高的分数。其次,构造一个联合目标对分类和回归进行学习,从而提高主要样本的分数。
Importance-based Sample Reweighting
IoU-HLR作为重要性的衡量指标,首先将排序转化为线性映射的真实值。根据线性映射的定义,IoU-HLR在每个类中分别进行计算。对于类
采用指数的形式来进一步将样本重要性
通过提出的权值重标定策略,可以将交叉熵重写成:
Classification-Aware Regression Loss
受到分类和定位是相关的,由此受到启发,作者提出了另一种方法来关注主要样本。作者提出使用分类感知的回归损失(CARL)来联合优化分类和回归两个分支。CARL可以提升主要样本的分数,同时抑制其他样本的分数。回归质量决定了样本的重要性,我们期望分类器对重要样本输出更高的分数。两个分支的优化应该是相互关联的,而不是相互独立的。
作者的解决方法是让回归损失能够感知到分类分数,这样梯度就可以从回归分支传递到分类分支。公式如下:
总结
Focal Loss认为正负样本的不平衡,本质上是因为难易样本的不平衡,于是通过修改交叉熵,使得训练过程更加关注那些困难样本,而GHM在Focal Loss的基础上继续研究,发现难易样本的不平衡本质上是因为梯度范数分布的不平衡,和Focal Loss的最大区别是GHM认为最困难的那些样本应当认为是异常样本,让检测器强行去拟合异常样本对训练过程是没有帮助的。PISA则是跳出了Focal Loss的思路,认为采样策略应当从mAP这个指标出发,通过IoU Hierarchical Local Rank (IoU-HLR),对样本进行排序并权值重标定,从而使得recall和precision都能够提升。
我认为PISA的方法有一个问题,就是只考虑了IoU的排序,但是没有考虑到即使是相同IoU的样本的重要程度也是不相同的,比如有两个相同IoU的样本,一个位于目标的内部(如下图1),另一个没有在目标的内部(如下图2),显然第一个样本应当比第二个样本重要,如果后面要对PISA方法进行改进的话,可能需要引入一个有效主要样本的概念。
Reference
1.Focal Loss for Dense Object Detection
2.Gradient Harmonized Single-stage Detector
3.Prime Sample Attention in Object Detection
*延伸阅读
点击左下角“阅读原文”,即可申请加入极市目标跟踪、目标检测、工业检测、人脸方向、视觉竞赛等技术交流群,更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流,一起来让思想之光照的更远吧~
觉得有用麻烦给个好看啦~