传感器差异驱动的遥感图像时空融合模型
点击上方“中国科学信息科学”, 及时获取期刊动态!
概 要
近日中山大学李军教授团队在遥感图像时空融合方面研究取得了进展,提出了传感器差异驱动的遥感图像时空融合模型,相关研究成果以“A new sensor bias-driven spatio-temporal fusion model based on convolutional neural networks”为题,发表在SCIENCE CHINA Information Sciences 2020年第4期遥感图像处理中的深度学习专题(Special Focus on Deep Learning in Remote Sensing Image Processing)上。
研究内容
遥感图像时空融合,指的是结合高空间、低时间分辨率图像(如Landsat,SPOT等,以下简称为细图像)和低空间、高时间分辨率图像(如MODIS等,以下简称为粗图像),生成同时兼具高空间、高时间分辨率的合成遥感数据。这样的数据对于植被监测、环境监测、农作物估产等应用有很大的帮助。
目前大多数传统的时空融合算法的基本思路可以用如下公式表示:
由于不论是粗尺度上的反射率变化还是细尺度上的反射率变化,都是对地表同一客观变化的记录,所以这种迁移具有一定的合理性。但是这种直接的迁移忽略了传感器差异所带来的影响。
因此李军教授团队引入传感器差异的概念,提出新的时空融合模型BiaSTF,其可以表示为:
(其中B表示传感器的差异。)
并将其与传统的模型算法STFDCNN做了训练重构误差的比较,结果如图所示:
图1 重构误差实验结果图
在这个实验中,前10000个训练迭代中完全并没有引入B,可以看到两个方法的重构误差完全一样,从10000后BiaSTF开始引入B,可以看到其重构误差有了明显的下降,说明了BiaSTF模型的有效性。在真实数据的实验中,BiaSTF也取得了优异效果:
图2 真实数据实验结果图
从左下角和右上角的细节图像可以看出,BiaSTF的预测结果比其他三种对比方法都更加接近于真实情况。同时实验结果的定量对比如下表所示:
表1 实数据实验结果评价指标
可以看出,BiaSTF在所有的指标上都取得了最优,证明了BiaSTF在实际应用中的效果。
研究成果
文章引用:
Li Y F, Li J, He L, et al. A new sensor bias-driven spatio-temporal fusion model based on convolutional neural networks. Sci China Inf Sci, 2020, 63(4): 140302, https://doi.org/10.1007/s11432-019-2805-y
文章下载:
http://scis.scichina.com/en/2020/140302.pdf
快速访问入口
长按并识别二维码,收获惊喜!