查看原文
其他

【AIDL专栏】白翔:基于合成数据的场景文本深度表示方法[附PPT]

白翔 人工智能前沿讲习 2022-04-16

AIDL简介

“人工智能前沿讲习班”(AIDL)由中国人工智能学会主办,旨在短时间内集中学习某一领域的基础理论、最新进展和落地方向,并促进产、学、研相关从业人员的相互交流。对于硕士、博士、青年教师、企事业单位相关从业者,预期转行AI领域的爱好者均具有重要的意义。2018年AIDL活动正在筹备,敬请关注获取最新消息。

导读

在中国人工智能学会举办的第一届《人工智能前沿讲习班》上,华中科技大学白翔老师做了题为《看图识字:基于合成数据的场景文本深度表示方法》的报告。报告介绍了基于合成数据的场景文本识别及其实际应用,并在白翔老师相关工作的基础上进行了深入讨论。本文根据白翔老师当日的报告内容整理发布,对于相关领域的研究工作具有长期价值。本报告经白翔老师审定,详细内容可参考白翔老师在icdar大会发言PPT。

「关注本公众号,回复“白翔”,获取完整版PPT」

讲师简介

白翔,华中科技大学电子信息与通信学院教授,博导,国家自然科学基金优秀青年基金,万人计划青年拔尖人才入选者,现任国家防伪工程技术研究中心副主任。他的主要研究领域为计算机视觉与模式识别、深度学习,具体包括目标识别、形状分析、场景文字检测与识别及智能交通系统。他已在计算机视觉与模式识别领域一流国际期刊和会议如PAMI、IJCV、CVPR、ICCV、ECCV、NIPS、ICML上发表论文40篇,担任期刊PatternRecognition, Pattern Recognition Letters, Neurocomputing, Frontier of ComputerScience, 自动化学报编委, JCST客座编委。曾担任IJCAI、ICPR、ACCV、ICIP等主流国际会议的领域主席/资深技术程序委员或竞赛主席,应邀给ICDAR 2017做大会特邀报告。尤其在形状的匹配与检索、相似性度量与融合、场景OCR取得了一系列重要研究成果,引起了国际同行的关注,入选2014-2017年中国高被引学者。他是视觉与学习青年学者研讨会(VALSE)指导委员,是VALSE在线活动(VALSE Webinar)主要发起人之一。

一、文本识别领域研究现状

目前的文字识别主要有两方面的研究。首先是传统的文字识别,也就是文档中的文字识别,主要是OCR技术,其技术已经比较成熟,效果也比较稳定。另一方面是基于场景的文字识别,也就是图片中的文字识别,即将图片里的文字转化成人类可以理解的语言。这个过程需要实现以下目标:获得图片中文字出现的位置,包括文本的起始位置、结束位置和上下高度;将所在位置的图片所包含的文本数据转化成人们可以理解的信息。这整个过程就是文字识别。

深度学习之所以能够比较成功地运用于场景理解,是因为拥有一个含有大量文字标注的数据集。但是将训练好的模型直接应用在文字识别上是行不通的,关键的问题在于文字和一般的场景物体相比具有特殊性。用传统的数据集来训练文字并不可行,文字标注也非常困难,因为文字形状的变化、颜色的变化、空间位置的变化难以完全预料。如何解决上述问题呢?答案就是合成数据。所谓合成数据,就是在一张图片中的某些区域添加文本,并加以不同的变化,比如字体的变化、颜色的变化、位置的变化等等。将通过上述方法得到的合成数据作为数据集,就可以训练一个网络。这样做的效果可能不好,但是可以通过其他方法进行改善。

二、TextBoxes:基于神经网络的文本检测

如报告开始所述,文本识别需要完成两个任务,一个任务是检测文字所在区域(Scene Text Detection),另外一个任务是对文本区域进行识别(Scene Text Recognition)。本篇论文将重点集中于第一个任务。

在这项工作中,检测任务的训练集有80万张图片,识别任务的训练集有900万个合成数据。训练好的模型在ICDAR场景下的检测识别精度可以达到90%以上,是目前最好的结果。文章提出的网络达到了这样的目标:模型能够直接产生文字包,并判断文字包中是否确实含有文字,如果没有就将该文字包舍去。

在TextBoxes网络中,每一层都会计算相应的卷积,并计算其响应及判别,在最后会将所有监督信息融合在一起,得到相应结果。得到的结果需要进行非极大值抑制处理以舍弃重复结果。在网络初始化过程中,需要按照一定的技巧设定default box,以把文字更好地呈现出来。另外一个重点是卷积核的设置,一般的卷积核是正方形形状的,但是在文字之中,卷积核的长应大于宽。通过以上技巧可以使网络效果提高非常多。

下图是一些实例,可以看到词间空隙,字体变化,光照变化,复杂背景等情况都能有效识别。这里有一个很重要的技巧,就是即使在检测的时候出现错误也没有关系,因为可以用最后识别的结果把一些错误去除。这是因为文字的特性跟一般问题不同,它输出的是一个序列,其正确结果惟一。如果结果是一个合理的单词,就可以把它作为一个正确的结果,否则就可以把它作为一个错误的结果去掉。


结合了检测任务和识别任务以后的结果分为Spotting和Recognition两部分。Spotting仅仅关注能否尽可能精确地定位文本框,而end-to-end Recognition不仅要看文本检测的效果,而且要看识别的结果是否正确。TextBoxes的所有指标都领先于其他算法。

三、CRNN: 端到端的场景文本识别

上述工作主要介绍了文本检测的相关工作,并没有涉及到文本识别的内容。下面介绍文本识别的相关工作:CRNN。CRNN的构成借鉴了语音识别里的递归神经网络(RNN)。在RNN中,如果输入一个序列,比如一段字符串或一段语音,会得到上下文相关的建模,而文字也可以类似地看待。但是检测到的文字区域本身还是图像,所以需要进行特征提取转化成序列。将所得序列交给递归神经网络,最后转化成可理解单词,如英文字符或数字。这么看就非常地简单和直接, RNN这个模型做了两件事情,一个是判定上下文的关系,另外一个是序列的输出。

图中的50/1k表示字典大小,none表示没有字典。显然有字典的时候结果更好,没有字典效果差些,但也很不错。总体来说CRNN比传统的方法以及其他深度学习算法都要优越。

需要注意的是,在不同字体,特殊字符,模糊文本以及有阴影的情况下,如果用传统方法来做识别,还是很困难的,但是由神经网络来做,都可以做的很好。这说明神经网络对变化的文字信号有非常好的识别效果,能给很多识别任务的性能带来明显的提升,因此可以满足一些实际需求,这也是为什么很多企业把文字识别作为重点研究方向的一个原因。另外还有一些识别错误的情况,但是如果人眼都看不清楚,也不能强神经网络所难。

CRNN方法的一些性能是值得注意的。首先训练CRNN不需要对文字字符进行切割,另外字典不是必须的——尽管有字典的时候切割效果会好一点,此外CRNN的模型与传统的神经网络相比要小得多。

四、鲁棒的场景文本识别

神经网络对有形变的文字的处理效果并不好,如果在其前面加一个形变纠正算法,使文字变成理想的样子,效果一定会有提升。那要怎么实现呢?首先网络模型要有文本切割能力,可以把非水平方向的文字进行切割;另外要有方向变化能力,可以把宽度不一致的文字变得平衡一点;最后要有取平能力,可以将有弧度的文字拉平直。

当训练好的模型做识别任务时,发现常规情况下的改善并不明显,这是因为这些图片还是比较好的,无法体现纠正算法的有效性。如果将数据集更改为两个专门做图像变化的和取形变化的数据集,会发现其效果明显优于已有方法。

五、文本识别在不同场景下的应用

纯粹的文字识别应用范围并不广泛,但是如果将文字作为线索,就可以应用在不同的场景。图片中的房子如果单看外形难以确定其用途,但是如果有文字信息,就不是什么难事了。再比如,所有的网络图片、视频都会有标签,如果将标签与场景结合,是可以分析出很多有效的东西。所以从很多方面看,文字识别都是一个趋势。但是目前做场景的人远多于做文字识别的人,如果把这两个相结合,会有更大的突破。总而言之,多特征融合是大的趋势,把文本特征和图像特征这两个特征不同的表达融合在一起,图像和文字都能发挥很大的作用,这里面还有很多东西值得探索。

对于低质量的视频图像怎么去做识别、检索、理解,也是需要讨论的。实际应用中会遇到很差的视频或图像,在这种情况下如何去识别,也是研究的趋势。这就是为什么图象识别准确率这么高,但是实际应用不多的原因:实际情况相当复杂。

下面结合具体的示例来介绍文本识别的一些应用。

1、以图搜题

以图搜题的目标是根据图片中的文字,将题库中匹配的题目找出来。相关公司的算法识别度已经很高。为什么他们可以做的很好呢?因为他做的是刚需,人人都能应用,他的用户是稳定的。

2、号码牌检测

一次马拉松比赛可以获得十几万张图片,要从这么多照片里找到包含特定参赛者的照片,是很困难的。如果人工识别,需要耗费很长的时间,但是如果将照片上传到服务器,通过深度学习进行分类,就不那么困难了。另外如果需要在比赛过程中定位一个人,根据人脸去寻找是相对较难的,因为人脸是有表情变化的,身体姿态也在不断的变化,但是如果按照号码牌来寻找就比较简单了。

六、总结与展望

未来的趋势是以文字为源头,把所有通过文字、视频、图像得到的任务信息进行整合,然后进行后续的其他任务,比如自然语言处理、舆情分析、图像理解等等。换句话说,未来的趋势就是利用多元融合、多元学习完成一个复杂的任务。

Q&A

提问:如果不对图片中的文本进行切割,怎样建立序列?怎样才能预测有多少个字?

白老师:这是一个很好的问题。事实上我们在训练的时候是把文字缩放到一个高度上,长度不变,从高度上去规划,所以序列的长度是可以变化的。最后输出的结果首先是可以克服长度的变化,另外我们的算法可以把重复识别合并。所以可以允许长度有一定的弹性变化。

提问:现在文本的校正效果是否不是很理想?

白老师:校正还是比较困难的。传统的校正方法都是处理一些情况还好的图像,深度学习网络的目标是希望各种情况都能识别出来,并对它进行相应的调整。但是当然我认为当前仍然属于探索的阶段,里面包含了很多的不确定性。

感谢AIDL志愿者边学伟协助整理!

志愿者持续招募中,有意者联系微信号“AIDL小助手(ID:must-tech)”

历史文章推荐:

【AIDL专栏】纪荣嵘:深度神经网络压缩及应用

中科院自动化所王亮研究员:深度学习与视觉计算

UCLA朱松纯:A Cognitive Architecture for Human-Machine Teaming

Rutgers大学熊辉教授:《易经》如何指导我们做人工智能?

UCLA朱松纯: 正本清源·初探计算机视觉的三个源头、兼谈人工智能

[AIDL1][附PPT]山世光:从人脸识别看深度学习对计算机视觉的推动及挑战

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存