视频人员重识别:关系引导空间注意力 + 时间特征提取模型
2020 年顶会论文中,很多都会将关系加入到注意力机制的获取中。
除了该文,还有 2020 年 CVPR 的基于视频的 Multi-Granularity Reference-Aided Attentive Feature Aggregation for Video-based Person Re-identification、基于图像的Relation-Aware Global Attention 等。
该方法都会在这些论文中有着很好的效果,可见这是在行人重识别领域一大发展。
论文名称:Relation-Guided Spatial Attention and Temporal Refinement for Video-Based Person Re-Identification(基于关系引导的空间注意力和时间特征提取的基于视频的行人再识别)
第一作者:Xingze Li
通讯作者:Wengang Zhou
作者单位:CAS Key Laboratory of Technology in GIPAS, EEIS Department,中国科学院电子工程与信息科学系 University of Science and Technology of China(中国科学技术大学)
01
看点
RGSA(relation-guided spatial attention)模块:每个 spatial 位置的注意力由它的特征和与所有位置的关系向量决定(也就是关系引导),并最终融合为一个frame的特征,它能够捕捉局部和全局信息,同时定位特征区域而抑制背景信息。同时作者提出,感受野要尽量的小,才能提取出更加具有区别性的特征。
RGTR(relation-guided temporal refinement)模块:所有帧与帧的关系信息使得各个帧之间能够相互补充,有助于增强帧级特征表示。
RM 关系模块:计算特征之间的关系使用的方法不再是 dot 或 inner,而是自己开发了一种 RM 关系模块来生成两个特征的关系向量。
GRV(global relation vector):通过计算每个 spatial 位置的的关系和各个frame 之间的关系,生成 spatial-level 和 frame-level 的 GRV。并分别用在了RGSA 和 RGTR 模型中。
PS:Spatial feature:指的是以(i, j)每个像素为单位的特征。为 1x1xC 维度。
02
Motivation
基于图像的所获得的信息是有限的,尤其是当受到遮挡或者有异常点时。
基于视频的行人重识别领域中,通常的做法是将局部信息融合为全局,然后估计全局(frames)或局部(parts)区域的质量,并将质量用作融合特征的权重。通常,这些方法仅仅单独考虑每个区域的质量,而忽略了区域内的质量差异和上下文信息。
03
Contribution
基于视频领域经常使用的方法是RNNs、卷积运算和注意力机制对空间和时间信息进行建模。他们中使用光流来提取低层次的运动信息,或者使用注意力机制来评估每个frame的质量分数。与这些捕捉局部信息的方法不同,我们的方法利用很少探索的全局关系信息来引导空间注意力和时间特征提取。
传统的 Non-Local Mechanisms 中,特征之间的相似性被归一化以用作关注,并且每个特征由所有特征的加权和来更新。在所有上述非局部机制中,特征通过加权求和操作来更新,其中相似的特征具有大的权重。
缺点:这种方法在有效获取上下文信息和识别更新特征的区别区域方面存在局限性。我们的:与这些方法不同,我们的方法探索全局关系信息以聚焦于informative foreground,并使框架在上下文中相互补充。
提出新的 RM 模型用来提取时间和空间特征之间的关系,生成 GRV,可以使得在空间位置上定位特征区域而抑制背景信息。每个位置的注意力由它的特征和与所有位置的关系向量决定,它能够捕捉局部和全局信息。又能在空间位置上进一步提取和增强帧之间的特征,所有帧内的关系信息使得各个帧能够相互补充,有助于增强帧级特征表示。
04
Method
Framework Overview
T帧分别进入CNN生成特征图
(t=1~n-1) 进入 RGSA(以 spatial 为单位,找各个之间的关系),生成被关系引导attention 后组合成帧级特征向量的 ft进入RGTR(找Frame之间的关系),其特征的平均混合为一个视频级特征向量
采用的损失包含:帧级的交叉熵损失、视频级的交叉熵损失、三元组损失。
Relation Module
Inner product(内积)只是表明这些特性在多大程度上是相似的。从这种关系中不能推断出一些详细的信息,如哪些部分相似,哪些部分不同。 np.dot() 则使得差异关系并不紧密,包含冗余信息、计算消耗。
① 计算两个特征的差异
全连接层中参数权重
② 以 difference 为基础,计算 more compact relationvector
其中
输出:
Relation-Guided Spatial Attention
提出 Local-aware,以(i, j)每个像素为单位的D层的特征,每个空间位置的注意力由它的特征以及来自所有位置的关系向量决定,揭示了局部和全局信息之间的依赖性。
生成的 GRV 通过和原特征 concat 后经过 FC 层生成权重信息,可以生成被关系引导的 attention,从而更好的实现特征聚合。
RGSA(步骤④和⑤)
GRV 关系特征和
步骤:
输入:
过程:
输出:经过处理的 frame-level 特征 f
Relation-Guided Temporal Refinement
在 Temporal feature fusion 上,常用的方法估计不同帧的质量,并通过加权求和操作融合特征。
但是缺点是:当相互比较时候,乘以低质量的frames可能会包含更多信息(低质量的特征可能也会包含有用的信息),因此我们利用不同的帧可以相互补充,并被细化和聚合以增强区分能力的特性,开发了一个关系引导的时间提取模块,通过它与其他帧的特征的关系来提取帧级特征。
目的:获得最终特征!方法和 RGSA 相似!只是最后不再根据权重来计算每一帧的输出,而是求平均。因为,不同 frame 可能含有不同的区别性特征!
步骤:
输入:
过程:
① 获得 frames 之间的成对关系
通过 RM 获得
② 生成 frame-level 的 GRV
其中
③ 生成 frame-level 特征(关系使用的是 frame-level)
利用 GRV 与
④ 生成 clip-level 特征
与上面不同的是,这里直接求 mean
其中
补充:GRV 在两个框架的作用
① RGSA
开发辨别区域并抑制背景(因为有权重啊!背景多很显然是被降低了权重)
② RGTR
增强 frame-level 特征的 discriminative 能力,从而强化增强 frame-level 特征的 discriminative 能力,从而强化 clip-level 的特征表示
Loss Function
整体是由交叉熵损失函数和三元组损失组成
cross entropy loss(交叉熵损失函数)
输入:each batch 包含了 P identities and K video
过程:和大多数方法是一样的
其中
triplet loss
输入:
P 行人的 positive 样本
P 行人的 negative 样本
过程:
Triplet loss方法一般分为batch hard triplet loss和adaptive weighted triplet loss,其中前者选择距离最近的和最远的正负样本,而后者在所有样本,硬样本权重较大,简单样本权重较小。作者选择了后者。
正样本的权重:
负样本的权重:
Triplet Loss:
其中,
Overall:
05
Implementation Details
Train:
① 数据集:MARS、DukeMTMC-VideoReID、iLIDS-VID、PRID-2011;
② 实验细节:在训练阶段随机从视频中挑选T帧,每个 batch 包含 P 个行人 ID,每个行人 ID 包含 K 个视频;数据输入采取随机翻转、随机擦除;骨干网络采用预训练的 ResNet50;训练阶段选取帧数为 T/2;采用 4 块 NVIDIA Tesla V100 GPU进行训练测试;
其中:Resnet50 框架,最后一层要改掉。
③ 参数设置:P = 18,K = 4,即batch size = 72 T;输入图像规格为 256*128;训练器为 Adam,其 weight decay = 5*10-4;迭代次数为 375 次;学习率为 3*10-4,在 125 个 epoch 和 250 个 epoch 后均下降到 0.1 倍。
①T->T/2
②所有的 Clip-level 的 frames 被提取之后,并使用 L2 正则化来生成序列特征
③使用余弦距离来匹配 query 和 gallery 的图像
06
备注:reid
行人-ReID-步态交流群
行人检测、行人重识别、步态识别等技术,
若已为CV君其他账号好友请直接私信。
我爱计算机视觉
微信号:aicvml
QQ群:805388940
微博知乎:@我爱计算机视觉
投稿:amos@52cv.net
网站:www.52cv.net
在看,让更多人看到