PlugNet:一种可插拔的超分辨单元监督文本识别方法
本文简要介绍ECCV 2020录用论文:“PlugNet: Degradation Aware Scene Text Recognition Supervised by a Pluggable Super-Resolution Unit”的主要工作。
一、背景介绍
图片低分辨率模糊是场景文本识别任务中常见的问题。本文提出了一种从特征层面进行超分辨率训练的方案PlugNet。该方案基于特征层面的超分辨率单元Pluggable Super-Resolution Unit设计,该模块仅在训练时生效,在推理时被移除,因此不产生额外计算开销。除此之外,本文还提出了Feature Squeeze Module(FSM)和Feature Enhance Module(FEM)用来增强特征。
二、方法概况
三、实验
四、总结
针对图片模糊退化问题,本文提出了PlugNet,使用一个可插拔的超分辨率模块辅助训练,并提出了FSM和FEM两个模块来进行特征的增强。一系列实验证明了PlugNet在低质文本识别问题上的有效性。
参考文献
[1] Wang et al. Textsr:Content- aware text super-resolution guided by recognition. arXiv 2019.
[2] Wang et al.Enhanced super-resolution generative adversarial networks. ECCV 2018.
[3] Zhang et al. Image super-resolution using very deep residual channel attention networks. ECCV 2018.
原文链接:
http://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123600154.pdf
撰稿:王天玮编排:高 学
审校:殷 飞
发布:金连文
免责声明:(1)本文仅代表撰稿者观点,撰稿者不一定是原文作者,其个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。(2)本文观点不代表本公众号立场。
往期精彩内容回顾
欢迎加入中国图象图形学学会!(附入会攻略)
扫描二维码,关注我们:D