查看原文
其他

论文推荐|[CVPR 2021] 融合文本检测与相似度学习的场景文本检索

杨文韬 CSIG文档图像分析与识别专委会 2022-07-11

本文简要介绍CVPR 2021录用论文“Scene Text Retrieval via Joint Text Detection and Similarity Learning”的主要工作。场景文本检索的目的是定位和搜索图像库中与给定查询文本相同或相似的所有文本实例图像。作者建立了一个端到端的可训练网络,共同优化了场景文本检测和跨模态相似性学习的过程,通过对检测到的文本实例的相似度进行排序来进行场景文本检索。数据集和代码将开源:https://github.com/lanfeng4659/STR-TDSL。 

图1 场景文本检索示意图

一、研究背景



场景文本检索[1]旨在从自然图像集合中搜索所有与给定的文本相同或相似的文本实例。与自然场景文本检测与识别不同,场景文本检索仅查找用户给出的感兴趣文本对应的图像。如图1所示,场景文本检索的目标是返回所有可能包含查询文本的图像及其边界框。从这个意义上讲,场景文本检索是一种跨模式检索/匹配任务,目的是缩小查询文本与每个文本图像之间的语义鸿沟。

文献[1]研究了场景图像中的文本检索,作者将文本检索分为两个独立的子任务:文本检测和文本图像检索。由于其框架采用了手工选取的特征,因此性能受到限制。场景文本检索的另一种可行解决方案是基于端到端文本识别系统,但是这意味着需要在检测和识别方面都要求很高的准确性,因此,这种方法通常无法获得令人满意的检索性能。 

二、方法原理简述



图2 网络整体框架图

图2是这篇文章提出网络的整体结构,包括了图像分支和文本分支。图像分支提取所有可能的文本候选图片的特征E,文本分支将查询词Q转换为特征F。接着计算E和F的配对相似度并进行排序。

为了简化检测流程,文本检测模块(Detection Module)采用了[2]中提出的Anchor-free检测器,使用ResNet-50+FPN作为主干网络。与一般需要检测的目标不同,场景文本通常以字符序列的形式出现。因此,采用了一种序列到序列模块(Image-S2SM)用于增强每个文本候选框的内容信息,具体结构在表1中详细说明。 

表1 Image-S2SM 和 Text-S2SM的结构

与图像不同,查询词是无法由神经网络直接处理的一组文本字符串。因此,采用词嵌入模块(Word Embedding Module)将查询词表达为特征。与Image-S2SM类似,同样嵌入后的文本特征经过了一个序列到序列模块(Text-S2SM),其具体结构在表1中详细说明。

在提取出文本候选图像和查询词的特征E和F之后,查询词Q与文本候选图像P的特征之间的配对相似度可以表示为相似度矩阵。在此,的值等于特征之间的余弦相似度,即通过下式计算: 

其中,V代表将二维矩阵变形到一维的操作。

在训练过程中,预测的相似度矩阵由目标相似度矩阵监督。每一个目标相似度矩阵S(Q,P)是对应词对的归一化编辑距离,如下式定义: 

其中Distance是Levenshtein编辑距离[3],代表的字符个数。

除了之外,也被用于辅助训练。

在推理阶段,和输入图像特征的相似度被用来进行排序。

损失函数包含三部分: 

其中,是[2]中的检测Loss。是文本转译任务的CTC[4] Loss。是跨模态相似学习的Loss,并使用Smooth-L1 Loss做回归。损失函数被定义为: 

其中和S是预测相似度矩阵及其对应的目标相似度矩阵。2N和K分别是增广后的查询词数和文本实例数。

三、主要实验结果及可视化结果



图3 在STR数据集上检索关键词“Coffee”

表2 在不同数据集上与不同方法的mAP指标对比 

图3展示在STR数据集上检索关键词“Coffee”后的8个结果。表1通过在SVT(Street View Text)[5]、STR(Scene Text Retrieval)[1]、CTR(Coco-Text Retrieval)[6]数据集上与其他先进的方法进行对比,证明了本文提出方法的优越性。 

图4  CSVTR数据集的样例

除此之外,作者还提出了一个中文街景文本检索数据集CSVTR(Chinese Street View Text Retrieval),如图4所示。

表3 在中文街景文本检索数据集CSVTR上的对比实验结果 

由于对比的方法[2]采用了一种称为PHOC (Pyramidal Histogram Of Characters)的文本编码方法,其维度随着字符的类别数急剧增长。限于GPU显存限制,PHOC方法只能限制在1019个字符类别上,而本文提出的方法可以支持完整的3755个字符类别,且mAP和FPS都远高于对比方法。这些结果表明,作者提出的方法更加鲁棒,可以很容易地推广到非拉丁语语言。

四、总结及讨论



文章提出了一种将场景文本检测与配对相似学习相结合的端到端训练框架。该框架可以在自然图像中与给定查询文本相同或相似的状态下搜索文本。实验表明,该方法在三个数据集基准上始终优于最新的检索/定位方法。此外,在提出的中文数据集上的结果表明,该框架能够较好地解决中文场景文本检索问题,这对现有的检索方法提出了更高的挑战。

五、相关资源



  • 论文原文下载地址: 

    https://arxiv.org/abs/2104.01552

  • 本文开源代码及中文街景文本检索数据集CSVTR下载地址(尚未更新): https://github.com/lanfeng4659/STR-TDSL

  • SVT(Street View Text)数据集下载地址:

    http://vision.ucsd.edu/~kai/svt/

参考文献



[1] Anand Mishra, Karteek Alahari, and C. V. Jawahar. Image retrieval using textual cues. In ICCV, 2013.

[2] David Aldavert, Marçal Rusiñol, Ricardo Toledo, and Josep Lladós. Integrating  visual and textual cues for query-by-string word spotting. In ICDAR, 2013.

[3] Ladimir Levenshtein. Binary codes capable of correcting deletions, insertions,  and reversals. In Soviet physics doklady, volume 10, pages 707-710, 1966

[4] Alex Graves, Santiago Fernández, Faustino Gomez, and Jürgen Schmidhuber.  Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks. InICML, 2006.

[5] Kai Wang, Boris Babenko, and Serge J. Belongie. End-to-end scene text recognition. In ICCV, 2011.

[6] Andreas Veit, Tomas Matera, Lukas Neumann, Jiri Matas, and Serge  Belongie. Coco-text: Dataset and benchmark for text detection and recognition in natural images. arXiv preprint arXiv:1601.07140, 2016.



原文作者: Hao Wang, Xiang Bai, Mingkun Yang, Shenggao Zhu, Jing Wang, Wenyu Liu


撰稿:杨文韬编排:高 学

审校:连宙辉

发布:金连文



免责声明:1)本文仅代表撰稿者观点,撰稿者不一定是原文作者,其个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。(2)本文观点不代表本公众号立场。 


往期精彩内容回顾

欢迎加入中国图象图形学学会!(附入会攻略)


征稿启事:本公众号将不定期介绍文档图像分析与识别及相关领域的论文、数据集、代码等成果,欢迎自荐或推荐相关领域最新论文/代码/数据集等成果给本公众号审阅编排后发布。


扫描二维码,关注我们:



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存