查看原文
其他

论文推荐|[IEEE TIP 2021] 基于深度学习的文档图像伪造攻击

赵麟,陈昌盛 CSIG文档图像分析与识别专委会 2022-07-11

本文简要介绍2021年8月TIP录用论文“Deep Learning-based Forgery Attack on Document Images”的主要工作。该论文通过基于深度学习的技术提出了一种低成本的文档图像编辑算法,并通过一套网络设计策略解决了现有文本编辑算法在复杂字符和复杂背景上进行文本编辑的局限性。文档编辑的实际效果如下: 

Fig. 1.  Illustration of three types of document images processed by the proposed document forgery approach (ForgeNet). The edited regions are boxed out in blue.

一、研究背景



由于全球新冠肺炎疫情的流行,电子商务和电子政务的应用中对在线文档认证的需求日益剧增。用户需要将文档(证书、成绩单、合同、证件等)的照片上传到各类网站以通过认证。然而,人们利用一些图像编辑工具或基于深度学习的技术,可对文档内容进行篡改。最近有研究表明,自然图像中的字符和单词可以用卷积神经网络[1]-[3]进行端到端的编辑。据我们所知,目前还没有关于上述基于深度学习的文本内容生成方案对文档图像安全的评估工作,但深度学习技术在文本图像编辑方面的发展已经对文档图像的安全构成了新威胁。此论文建立了一个基于深度学习的文档图像篡改网络,并攻击现有的文档图像认证系统,攻击模型如Fig. 2所示。 

Fig. 2. Two representative forge-and-recapture attack scenarios. (a) The attacker scans his/her own identity document to obtain an identity document image and forges the document of a target identity to perform an impersonate attack. (b) The attacker steals an identity document image and forge his/her own document to obtain unauthorized access.

二、方法简述



Fig. 3. Overview of the proposed document forgery approach. A forge-and-recapture attack is performed on a captured document image.

文档伪造攻击分为伪造(通过该论文提出的深度网络ForgeNet,网络框架见Fig. 3)和翻拍两个步骤。在伪造过程中,由成像设备获取的文档图像作为ForgeNet的输入。它被分为三个区域,即文本区域、图像区域和背景区域(不包括在前两类中的区域)。背景区域由反半色调模块(IHNet)处理,用以去除打印图像中的半色调点。图像区域中的原始照片被目标照片所取代,所得图像被输入到打印和扫描预补偿模块(PCNet)和IHNet。值得注意的是,PCNet引入颜色失真,并在编辑过的区域引入半色调图案,这样就可以补偿编辑过的区域和背景区域之间的差异。文本区域随后被输入到文本编辑模块(TENet)、PCNet和IHNet。经伪造网络处理后,这三个区域被拼接在一起,形成一个完整的文档图像。最后,伪造的文档图像由相机或扫描仪进行翻拍,完成伪造和翻拍攻击。 

Fig. 4. The framework of TENet. It contains three subnets: background inpainting subnet, text conversion subnet and fusion subnet. The background inpainting subnet generates a complete background by filling the original text region with the predicted content. The text conversion subnet replaces the text content of the source image with the target text while preserving the original style. The fusion subnet merges the output from the last two subnets and yields the edited image with the target text and original background.

Fig. 4是文本编辑网络(TENet)的框架,它由三个子网组成。背景填充子网预测原始文本区域的背景内容并进行填充;文本转换子网将源图像 I_s 的文本内容替换为输入的目标文本图像,同时保留原始风格;融合子网将前两个子网的输出合并,得到带有目标文本和原始背景的图像。 

Fig. 5. Architecture of PCNet. The general architecture follows an encoder-decoder structure.

由于编辑过的文字区域没有打印和扫描的失真,但背景区域却经过了打印和扫描过程。如果直接拼接编辑过的文本和背景区域,二者边缘的伪影会很明显。所以,在合并不同区域之前,可以通过具有自动编码器结构的PCNet(网络结构如Fig. 5所示)来模拟打印-扫描过程中的强度变化和噪声,预先补偿文字区域的打印和扫描失真。 

Fig. 6. Architecture of IHNet. It consists of three subnets: CoarseNet, EdgeNet and DetailNet.

在打印和扫描后或由PCNet处理后,文档图像可以被视为半色调点的集群。如果图像在没有进行还原的情况下被重新打印和扫描,第一次和第二次打印过程中产生的半色调图案会相互干扰并引入混叠失真。为了提高伪造和翻拍攻击的成功率,在翻拍之前可以通过IHNet(网络结构如Fig. 6所示)去除伪造文档图像中的半色调图案。

三、主要实验结果及可视化效果



作者首先评估了TENet在合成字符数据集上的性能。由于SRNet [2]最初设计用于编辑场景图像中的英文字母和阿拉伯数字,应用于视觉翻译和增强现实上,它在结构复杂的汉字上表现不佳,尤其是在有复杂背景的文档中。所以作者通过对SRNet的网络结构进行调整,提出了文本编辑网络TENet。作者对TENet中不同于SRNet的组件进行了定性和定量的评估。SRNet和TENet的三个主要区别如下:1)对源图像和背景填充子网的输出进行图像差分操作,获得没有背景的样式文本图像;2)将输入到文本骨架器,所提取的骨架图像作为监督信息直接输入到文本转换子网;3)设计了一个考虑纹理连续性的精细融合子网取代通用的U-Net网络结构,用来融合不同的区域。 

Fig. 7. Comparisons of SRNet and different configurations of the proposed TENet on synthetic character dataset Dt. (a) Original images. (b) Edited by SRNet. (c) Edited by TENet without image differentiation (ID). (d) Edited by TENet without fine fusion (FF). (e) Edited by TENet without skeleton supervision (SS). (f) Edited by the proposed TENet. (g) Ground-truth. Differences between the results from TENet and the ground-truth are boxed out in blue. The SSIM metric computed from each edited document and the ground-truth is shown under each image from (b) to (f).
TABLE Ⅰ Comparisons of SRNet and different settings of TENet. The best results are highlighted in bold. 

如Fig. 7 (c)-(e)中的视觉结果所示,如果去除这三个组件,都出现了不同程度的失真。图像差分、精细融合网络和骨架监督的重要性分别反映在字符、背景纹理和字符骨架的质量上。定量分析(见TABLE Ⅰ)和视觉实例都充分地证明了这三个组件的重要性。 

Fig. 8. Visual comparison on the identity card images.

此外,作者还选择具有复杂背景的身份证作为目标文档,通过单样本和一些数据增强策略训练文本伪造网络(ForgeNet)。如Fig. 8所示,ForgeNet只用单样本进行微调就取得了良好的伪造性能,而在SRNet编辑的图像中文字和背景都出现了失真。

TABLE Ⅱ Identity document authentication under forge-and-recapture attack on MEGVII Face++ AI. 

作者将由ForgeNet伪造得到的10张身份证图像进行翻拍后(翻拍操作可以进一步隐藏篡改痕迹),上传到百度AI、腾讯AI和旷视Face++ AI这三个文档图像认证平台进行攻击,以此验证平台对此类伪造和翻拍的身份证图像的取证性能。在旷视Face++ AI上的验证结果如Table Ⅱ所示。结果表明,测试的10张伪造和篡改的身份图像均攻击成功。同时,所有测试的图像也都成功通过了其他两个认证平台的认证(包括针对编辑、翻拍的检测等)。这说明即使是主流且先进的文档认证平台也难以区分伪造和翻拍的文档图像,充分证明了本工作所提出的攻击方法的成功。

四、总结及讨论



论文提出了一个基于深度学习的文档图像编辑网络,与目前的自然场景文本编辑网络相比,此网络可以编辑具有复杂字符和复杂背景的文档图像。为了达到良好的编辑性能,作者通过一套网络设计策略,如避免源图像的不同部分出现不必要的混淆、构建纹理连续性损失和提供辅助骨架信息,解决了现有文本编辑算法在复杂字符和复杂背景的图像上进行文本编辑的局限性。除此之外,编辑后的图像还进行了颜色预补偿和反半色调的后处理,在一定程度上减轻了文本编辑操作所引入的失真。实验结果表明,通过这些后处理,文档图像中不同区域之间的一致性得以保持。该论文还展示了在实际场景下的文档伪造性能,即攻击者在目标域中只用一个样本生成身份文档。最后,采用翻拍操作来覆盖文本编辑和后期处理操作的痕迹。该论文所提出的攻击方法已经成功攻击了一些先进的文档认证系统,基于深度学习的文本编辑技术的发展给文档图像的应用带来了巨大的安全风险。

五、论文资源



论文地址:https://arxiv.org/abs/2102.00653

参考文献



[1] Q. Yang, J. Huang, and W. Lin, “SwapText: Image based Texts Transfer in Scenes,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 14 700–14 709.

[2] L. Wu, C. Zhang, J. Liu, J. Han, J. Liu, E. Ding, and X. Bai, “Editing Text in the Wild,” in Proceedings of the 27th ACM International Conference on Multimedia, 2019, pp. 1500–1508.

[3] P. Roy, S. Bhattacharya, S. Ghosh, and U. Pal, “STEFANN: Scene text editor using font adaptive neural network,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 13 228–13 237.



原文作者: Lin Zhao, Changsheng Chen, Jinwu Huang

撰稿:赵麟,陈昌盛
编排:高  学
审校:连宙辉
发布:金连文

 


免责声明:1)本文仅代表撰稿者观点,撰稿者不一定是原文作者,其个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。(2)本文观点不代表本公众号立场。


往期精彩内容回顾


欢迎加入中国图象图形学学会!(附入会攻略)


征稿启事:本公众号将不定期介绍文档图像分析与识别及相关领域的论文、数据集、代码等成果,欢迎自荐或推荐相关领域最新论文/代码/数据集等成果给本公众号审阅编排后发布。


扫描二维码,关注我们:


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存