基于级联卷积神经网络的大场景遥感图像舰船目标快速检测方法
基于深度学习的遥感图像目标检测是遥感技术领域研究的重要课题之一,在民用和军事领域得到广泛关注。高分辨率遥感图像可以获得大场景下的地面物体信息以及丰富的细节信息,如何有效地使用由高分辨率带来的数据,是当前高分辨率遥感图像面临的主要问题。
针对高分辨率遥感图像的舰船检测,由于遥感图像尺寸较大(一般包含百万以上的像素点),而舰船目标在遥感图像中稀疏分布且相对尺寸较小,如果直接将图像输入到神经网络中进行处理,往往是不可行的。因此,目前针对大场景遥感图像下的舰船检测,主要使用滑窗的方法将大图分割为切片后送入到深度网络中检测。但是滑窗法存在大量的冗余计算,且对于滑窗参数的选择依赖性太高,影响目标的检测效率和检测精度。
针对以上问题,上海交通大学张增辉教授团队利用“Two stage”的目标检测思想,提出一种基于级联卷积神经网络的大场景遥感图像舰船目标快速检测方法。该方法使用级联型全卷积网络模型(图1),首先设计全卷积网络P-FCN来代替传统滑窗的方式,找到大场景下可能的舰船区域,实现区域聚焦,然后通过对场景分割领域表现良好的U-Net网络进行针对性的改进,设计D-FCN,对聚焦区域内的舰船目标进行检测与朝向估计,从而实现大场景遥感图像中舰船目标的快速检测。
图1 级联型网络总体架构图
该工作拟发表在《雷达学报》2019年第3期“雷达海上目标探测”专题“基于级联卷积神经网络的大场景遥感图像舰船目标快速检测方法”(陈慧元,刘泽宇,郭炜炜,张增辉,郁文贤),现已网络优先出版。
该文首先介绍了级联型网络的整体架构(图1),然后对P-FCN(图1左)和D-FCN(图2)两个网络结构分别展开论述,最后通过使用高分辨率SAR图像(图3)和光学遥感图像(图4)对网络结构进行测试,验证了级联网络在大场景遥感图像目标检测中的有效性。与现有的滑窗方法和YOLO3相比,本文的算法具有更好的检测性能。
图2 D-FCN结构图
图3 SAR图像级联网络检测结果
图4 光学遥感图像检测结果
了解详细内容请点击下面阅读原文。