基于深度学习的多目标跟踪:从UMA Tracker出发谈谈SOT类MOT算法
©PaperWeekly 原创 · 作者|黄飘
学校|华中科技大学硕士生
研究方向|多目标跟踪
之前的文章中我们介绍了联合检测和跟踪的多目标跟踪框架,这类框架最大优势在于可以利用优秀的检测器平衡不同观测输入的质量。随之又介绍了端到端的数据关联类算法,这类算法的优势在于可以利用 MOT 数据信息缓解人工提取特征和计算特征距离的弊端。这次我们要介绍的是基于单目标跟踪(SOT)算法的 MOT 算法,这类算法的优缺点可以看我下面的介绍。
前情回顾(FAMNet、DMAN)
1.1 DMAN
论文标题:Online Multi-Object Tracking with Dual Matching Attention Network
论文来源:ECCV 2018
论文链接:https://arxiv.org/abs/1902.00749
代码链接:https://github.com/jizhu1023/DMAN_MOT
利用 Bi-LSTM 网络实现了观测框与目标轨迹历史特征序列的端到端特征提取与比对; 将基于改进版 ECO 的 SOT 模块嵌入了网络中,其主要利用的是响应图信息,而响应图中包含有目标的定位和分类信息; 在数据关联部分,我们可以注意到存在两个识别部分,作者称之为时空注意力,其中时间注意力就是第一点中的 verfication 任务,而空间注意力就对应图中的identification任务 ,这里利用 SOT 输出的响应图作为注意力 mask,分别基于特征预测了目标身份信息。
对于第一点,其实通过图就可以明白,是通过对于历史轨迹特征的质量进行自适应评估,并对特征自动融合。而对于第二点,关于 SOT 如何融入网络,可以自行搜索 CFNet 等 SOT 网络。而对于 ECO 算法,作者考虑到相似表观目标中容易出现的多峰问题进行了改进:
1.2 FAMNet
对于相邻帧中的每个目标,利用 Siamese 网络进行单目标跟踪,由此隐式获取到目标的表观和位置信息,并基于响应图进行特征比对; 利用其提出的 R1TA Power Iteration Layer 降低连续多帧数据关联的复杂度,并实现连续多帧的跟踪训练。
论文标题:Online Multi-Object Tracking Using CNN-based Single Object Tracker with Spatial-Temporal Attention Mechanism
论文来源:ICCV 2017
论文链接:https://arxiv.org/abs/1708.02843
看完整个流程我惊了,尤其是 ROI Pooled Features 那一部分,比 Tracktor++ 提出得还早。通过将不同目标映射到特征图上进行进一步特征提取和位置回归,只不过作者当时并没有从检测入手,所以效果不突出。
LSST
KCF
整体来看包含了:
综合前/背景相应和SOT设计Instance-aware SOT跟踪器: 这两个响应图是直接基于岭回归算法叠加的: 然后利用 KCF 的求解方式对联合模型进行求解。 基于检测的校正,即对 SOT 结果和 Detection 信息利用 multicut 进行数据关联,对于这类图模型的构建可以参照我之前写的博客 [7]。有了目标实际上就有了图节点,那么 SOT 模型就是为边权而服务的:
其中 X 表示目标轨迹,O 表示的是预测的目标位置和观测位置的集合,g 就是上面的联合损失函数。即如果是相邻帧之间的边权,则用 SOT 中的联合损失函数值。如果是上一帧中目标间的边,则设置一个固定值。如果是当前帧节点间的边,则直接使用 IOU 代替。 模型更新
作者考虑到场景中可能存在的噪声信息,导致 SOT 跟踪结果不准,所以通过一个 CNN 网络判断当前 SOT 结果是否需要利用观测信息进行更新,如果需要,则采用观测框。 有意思的是作者采用了强化学习的策略在线训练分类器。当观测框比预测框更精准,但是没有更新,那么观测框的特征和预测框的特征会被当作 positive samples。当预测框比观测框更精准,但是却更新了,那么就视为 negtive samples,样本与部分训练集合并组成在线训练集进行更新。特征是通过 ROI Pooling 进行提取的。 当然,如果当前更新的权重并不适用于接下来的跟踪,权重还会恢复如初。 目标的管理 为了保证目标从遮挡状态恢复,作者做了一个强假设,即如果目标因遮挡而丢失,那么在出现的那一帧的数据关联中也没有与之匹配的目标。因此就可以跨帧匹配:
利用时间距离、位置形状、IOU、直方图等信息作为特征,通过 SVM 进行分类判别。
效果如下:
UMA
其中的特征提取都是采用的 AlexNet,从图中可以看到:
对于正样本对则采用 SOT 进行跟踪比对,从而得到 SOT 部分的损失。
对于每个目标样本,还存在一个 embedding 模块,提取了 256 维的特征信息,进而进行 iidentification 的分类任务;
利用 SENet 的机制,实现 verification 任务。
其中第 2 行是跟踪任务中的响应图(网络第一行分支),第 3 行是相似度度量任务中的响应图(网络第三行分支),所以 SOT 的任务跟偏向于定位和周围环境信息的提取,而 Affinity 部分更偏向于前景目标的部位。
这里作者直接通过 affinity 相似度和 IOU 的变化情况估计了遮挡情况。另外,为了保证表观特征部分的信息更准确,作者利用 ROI Align 模块,将特征图上 SOT 预测出来的位置区域的目标特征单独获取出来作为表观特征的输入。
参考文献
[1] Zhu J, Yang H, Liu N, et al. Online multi-object tracking with dual matching attention networks[C]. in: Proceedings of the European Conference on Computer Vision (ECCV). 2018. 366-382.
[2] Chu P, Ling H. Famnet: Joint learning of feature, affinity and multi-dimensional assignment for online multiple object tracking[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2019. 6172-6181.
[3] Chu Q, Ouyang W, Li H, et al. Online multi-object tracking using CNN-based single object tracker with spatial-temporal attention mechanism[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2017. 4836-4845.
[4] Feng W, Hu Z, Wu W, et al. Multi-object tracking with multiple cues and switcher-aware classification[J]. arXiv preprint arXiv:1901.06129, 2019.
[5] Chu P, Fan H, Tan C C, et al. Online multi-object tracking with instance-aware tracker and dynamic model refreshment[C]. in: 2019 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2019. 161-170.
[6] Yin J, Wang W, Meng Q, et al. A Unified Object Motion and Affinity Model for Online Multi-Object Tracking[J]. arXiv preprint arXiv:2003.11291, 2020.
[7] https://zhuanlan.zhihu.com/p/111397247
点击以下标题查看更多往期内容:
基于深度学习的多目标跟踪算法:端到端的数据关联 多目标跟踪领域近期值得读的几篇论文 浅谈多目标跟踪中的相机运动 CVPR 2020 | 商汤TSD目标检测算法解读 CVPR 2020 | 港中文提出3D目标检测新框架DSGN NAS+目标检测:AI设计的目标检测模型长啥样?
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。