查看原文
其他

【源头活水】ICCV‘21论文:通过概率建模深度检测目标的主动学习法



“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。

来源:知乎—黄浴
地址:https://zhuanlan.zhihu.com/p/423854323
ICCV’21论文"Active Learning for Deep Object Detection via Probabilistic Modeling",作者来自Nvidia、韩国首尔大学和德国慕尼黑工大。
主动学习旨在选择数据集信息量最大的样本来降低标记成本。现有的工作很少涉及目标检测的主动学习。大多数方法是基于多模型或者是分类方法的直接扩展,因此仅用分类头来估计图像的信息量。本文提出一种用于目标检测的深度主动学习方法,依赖于混合密度网络(mixture density networks),估计每个定位头和分类头输出的概率分布。在单模型的单次前向传递计算,它明确地估计两种不确定性,即aleatoric 和 epistemic。该方法用一个评分函数,将这两种类型的不确定性聚合起来,获得图像的信息量分数。在 PASCAL VOC 和 MS-COCO 数据集,证明了其有效性。
代码开源:https://github.com/NVlabs/AL-MDN
如图所示,是该方法的示意图:
而下图是该目标检测框架的概览:与传统目标检测器的主要区别在于定位头和分类头(两个分支)。a)不具有确定性输出,而是为每个输出学习 K 分量 GMM 的参数:定位头的边框坐标和分类(置信度)头的类密度分布;b) 从 GMM 的分类头中消除方差参数,提高分类头效率。
基于GMM,得到两个不确定性的估计:

GMM的参数估计如下:
定位损失(回归)函数定义如下:
类概率分布定义为:

分类损失定义为:
最后,总损失定义为:

而推理的输出即定位和分类的结果:

最后,高效的aleatoric uncertainty计算是:
为此修正分类损失函数定义:

主动学习的评分函数为每个图像提供一个单值表明其信息量。评分函数通过聚合图像中每个检测目标的两种不确定性值来估计图像的信息量。
具体来说,让 U = {uij } 是一组图像的不确定性集,其中 uij 是第 i 个图像第 j 个目标的不确定性。对于定位,uij 是 4 个边框输出的最大值。首先,z-score 归一化 (u ̃ij = (uij − μU )/σU ),补偿一个事实:边框的坐标值是无界的,并且图像的每个不确定性可能有不同的范围。然后,对每个图像分配检测目标的最大不确定性 ui = maxj u ̃ij。凭经验发现,在坐标和目标上取最大值比取平均值要好。
用上述算法,每个图像获得四个不同的归一化不确定性值:用于分类和定位的两个不确定性,分别为 u = {uiepc , uialc , uiepb , uialb }。剩下的部分是将这些分数聚合成一个。聚合这些不确定性评分函数得到不同组合,包括求和或取最大值。正如在实验中展示的那样,取最大值会获得最高评分。
实验结果如下:采用SSD方法和Faster RCNN做检测
比较多模型方法:ensemble和MC-dropout。

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。


“源头活水”历史文章


更多源头活水专栏文章,

请点击文章底部“阅读原文”查看



分享、在看,给个三连击呗!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存