高空间分辨率和高时间分辨率的遥感影像是实现快速精细的地表变化信息监测必备的基础数据。当前,卫星传感器因受硬件的局限,无法通过单一卫星上获取同时具备高空间和高时间分辨率的遥感影像。遥感影像时空融合是结合高空间、低时间分辨率影像(如Landsat和Sentinel等)和低空间、高时间分辨率影像(如MODIS等),生成同时具备高空间、高时间分辨率的合成遥感影像,为快速精细的植被监测、环境监测、农作物估产等应用提供行之有效的数据。遥感影像时空融合的核心是从低空间、高时间分辨率影像中捕捉地表变化信息,重构出高空间、高时间的变化信息。然而,现有研究方法对地表渐变信息(如植被的变化)中的重构效果较好,对地表突变信息(如土地利用类别的变化)的重构效果往往不佳。
针对这一问题,陈跃红博士联合中国科学院地理科学与资源研究所葛咏研究员课题组,提出了一种基于多尺度双路卷积神经网络的遥感影像时空融合模型(STFMCNN),利用深度神经网络充分挖掘影像变化信息,实现突变和渐变信息的统一表达学习,以获取高空间、高时间分辨率的遥感影像。通过实验发现,该模型能有效对突变和渐变信息的重构,比现有经典遥感影像时空融合方法获得更佳的变化信息重构视觉效果,精度也更高。
上述研究发表在遥感权威期刊IEEE Transactions on Geoscience and Remote Sensing (2022年影响因子为8.125),全文链接https://ieeexplore.ieee.org/abstract/document/9399175,论文入选2022年ESI Top 1% 高被引论文。论文引用信息:Chen Yuehong, Shi Kaixin, Ge Yong and Zhou Yanan, Spatiotemporal Remote Sensing Image Fusion Using Multiscale Two-Stream Convolutional Neural Networks, IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-12, 2022, Art no. 4402112, doi: 10.1109/TGRS.2021.3069116.
此项研究受到国家重点研发计划项目(No. 2017YFB0503501)、国家自然科学基金面上项目(No. 42071315)和中央业务经费(No. B210202008)支持。