SAR and Multispectral Image Fusion Based on Dual-channel Multi-scale Feature Extraction and Attention
-
摘要: 图像融合的根本任务是提取图像特征,由于合成孔径雷达(Synthetic Aperture Radar,SAR)图像和多光谱(Multi Spectral,MS)图像存在通道差异,针对现有算法难以充分提取和利用SAR图像的高频细节信息和多光谱图像的低频光谱信息,融合图像存在细节丢失和光谱失真问题。本文提出了一种基于双通道多尺度特征提取和混合注意力的图像融合算法。首先采用双通道网络提取SAR和多光谱图像的多尺度高频细节特征和低频光谱特征,并连续使用不同空洞率的扩张卷积扩大感受野。然后将提取的特征映射到混合注意力模块中进行特征增强,再将这些增强特征与上采样的多光谱图像叠加。同时构建了基于光谱角度距离的损失函数,可以进一步缓解细节丢失和光谱失真。最后通过解码网络重建图像,得到高分辨率的融合图像。实验结果表明,本文算法达到了领先水平,并且融合图像在细节和光谱上保持了较好的平衡。Abstract: The fundamental task of image fusion is to extract image features. Because of the channel differences between synthetic aperture radar (SAR) images and multispectral (MS) images, existing algorithms have difficulty in fully extracting and utilizing the high-frequency detail information of SAR images and low-frequency spectral information of multispectral images, and the fused images have problems with detail loss and spectral distortion. In this study, an image fusion algorithm based on dual-channel multiscale feature extraction and hybrid attention is proposed. First, a dual-channel network is used to extract multi-scale high-frequency detail features and low-frequency spectral features of SAR and multispectral images, and successively expand the perceptual field using dilated convolution with different void rates. The extracted features are then mapped to the hybrid attention module for feature enhancement, and these enhanced features are superimposed on the upsampled multispectral images. A loss function based on the spectral angular distance was also constructed, which could further alleviate the problems of detail loss and spectral distortion. Finally, the image is reconstructed using a decoding network to obtain a high-resolution fused image. The experimental results show that the proposed algorithm achieves the best performance and that the fused image maintains a good balance of details and spectra.
-
0. 引言
在红外热成像设备的设计和应用中,经常针对不同厂家或者不同型号的红外探测器定制非标的红外图像处理算法,以及标定不同的算法参数。由于算法模型或者算法参数经常变化,导致设计算法、仿真、在硬件上调试算法的时间很多,开发周期很长,开发效率低下等问题。而常规的红外图像处理算法,包括数据采集、时域滤波、非均匀性校正、空域滤波、锐化增强、坏点校正以及调光映射等。设计的初期,需要从算法原理设计、算法模型的建立、数学过程的计算,转化成可实现的编程语言,然后实现和显示。
随着小型化、低功耗、低成本的红外热成像设备应用的普及和民用。FPGA处理器非常适合于该种应用需求,FPGA是高速并行的处理器,适合于图像阵列的算法处理和加速,并且功耗低,可反复编程设计,所以常应用于红外热成像设备中。
1. 传统的红外图像仿真方法
基于FPGA的红外图像处理算法,仿真流程示意图如图 1所示。
从图 1中可知,利用FPGA处理器进行图像处理,需要两步的仿真结果。
第一步:根据算法需求,设计算法原理,在Matlab软件上编程实现算法过程,先用浮点数进行设计和计算,代码设计和编写完成后,导入测试图像,进行仿真和显示,在显示窗口中显示出来[1-4]。对显示出来的图像效果进行评估,看看图像效果有没有达到算法原理期望的结果,如果没有,调整算法参数和实现过程,反复迭代调整直至图像效果达到期望的结果。达到期望结果后,进行定点化设计,将算法实现过程中的浮点数,全部转化成定点化数,比如INT8、INT16、INT32等,并且转化完成后,保证算法实现的结果仍然达到期望值,不损失精度,不丢失细节。然后再更换测试图像,测试数据设计成依次递增或者递减的特征数据,再进行仿真。
第二步:文献[5]、[6]提出定点化之后的算法原理和实现过程,编写FPGA的硬件描述语言,设计FPGA的逻辑,将第一步过程中的算法原理实现出来,再进行ModelSim仿真,仿真测试的输入激励是第一步中同样依次递增或者递减的特征数据,得到仿真结果,与第一步中每个关键节点(关键步骤)的结果进行比对,保证每一步的结果都与Matlab仿真的结果相同,才能确保算法效果的达到。
传统的红外图像仿真方法,分成上述两个步骤,先要进行Matlab仿真,显示评判效果达到之后,再启动定点化,将定点化之后的算法过程转化成FPGA中可以实现的过程,并用FPGA的硬件描述语言实现相关的逻辑,再进行ModelSim仿真,由于ModelSim不能像Matlab工具一样方便导入一张图像(图片数据)进行仿真,仿真结果不能直观地可视化显示。所以在第一步、第二步过程中,输入激励的时候制作一些递增、递减的相同特征数据进行仿真。对每一步关键步骤和最后结果的仿真比对,保证数据正确,才能保证算法原理的实现和算法效果的达到。
2. 基于ModelSim可视化的红外图像仿真方法
从上述传统的红外图像仿真过程看,既要实现Matlab代码编写、仿真、还要做定点化设计。等FPGA代码编写完成后,在ModelSim仿真的时候还要进行每一步过程的计算结果比对,并且不能直接可视化的方式看到算法运行的结果。存在实现过程复杂、开发效率低下,开发周期长等问题。针对这些问题,本文提出了一种新的基于ModelSim可视化仿真的红外图像仿真方法。如图 2所示为本文的实现框图。
从图 2中可知,基于ModelSim可视化的红外图像仿真方法相比传统的红外图像仿真方法,仿真过程简单很多,开发效率也会提高很多。在算法原理设计完成后,直接编写FPGA的硬件描述语言实现算法计算过程,再进行ModelSim仿真,仿真的时候,不再用特定的递增数据或者递减的特征数据做输入激励,而是用之前原始采集到的红外图像,如果算法原理是针对16 bit的原始红外图像处理,可以是Y16数据,针对8 bit的调光之后红外图像处理可以是Y8数据,之前采集到的红外图像Y16或者Y8数据,存放在RAW文件中。而RAW文件中的图像数据是可以用ImageJ查看的,ImageJ工具可以直接显示16位或者8位的RAW图像。
对于红外图像算法所用到的数据文件——RAW文件,是不能直接导入ModelSim进行仿真的,需要经过binary工具将raw文件转换成txt文件,在ModelSim中通过系统调用$readmemb/ readmemh函数读入TXT文件的方式读入到内存中,然后进行图像算法处理,算法处理完成,调用$writememb/ $writememh函数将算法处理之后的图像写入txt文件中,通过txt2bin工具,将txt格式的数据转换成bin文件,再通过直接改后缀名,将.bin改成.raw文件。这样输入输出都是raw格式的数据文件,导入ImageJ工具中显示,以可视化的方式显示出了图像。
所以,这样红外图像算法处理的输入是图像数据,输出是处理之后的图像数据,可以直观地在ImageJ工具中显示出来对比,分析红外图像算法的处理过程是否正确。并且每一步的计算过程和关键步骤的结果也可以通过如图 3内存查看的方式、图 4内存读写过程仿真的方式查看数据在内存中存储、写入和读出是否异常。并通过如图 5红外图像算法处理仿真过程来查看数据计算过程正确与否。
这样数据输入,写入内存,然后从内存中读出,再进行红外图像算法处理,每一步数据的处理都是可以查询和追溯的,所以既方便又快捷。如图 6所示为本文进行红外图像滤波降噪算法处理过程中的输入源图和处理完成之后输出结果对比图Image显示,图 7为本文中基于ModelSim仿真过程中输入输出文件结构示意图。
在反复调整算法过程,以及算法参数的情况下,能够很快得到想要的算法结果,比如图 6中右边是降噪之后的效果图,降噪之后,图像噪声能消除了,但是图像变得模糊了,说明降噪算法参数设置不合适,通过调整滤波器的系数和阈值之后,降噪效果有明显的改善,如图 8所示。
上述图 6与图 8中的红外图像滤波降噪算法为非局部平均滤波降噪算法,算法流程如图 9所示。这种降噪算法是一种利用图像自相似性的空域滤波算法,相比传统高斯平滑、双边滤波等方法,保护更多的图像细节。图像各点之间可以同时进行运算,非常适合于在FPGA并行处理器上运算。根据相似性计算权重的时候,如果相似性阈值选择太大,算法滤波出来的效果如图 6所示,过度平滑了,图像变模糊了,而选择合适的相似性阈值,得到滤波出来的效果如图 8所示,既能滤除噪声,又能保留图像细节。在该种红外图像仿真方法中能很快得到一组适合的算法参数。
基于该种ModelSim可视化的红外图像仿真方法,能够快速地修改算法参数和调整算法计算过程,运行之后得到图像算法的仿真结果,并且输入、算法计算、输出等环节里的每一步数据都是可以通过内存或者波形查看的方式追溯数据处理过程,保证数据向着期望的方向计算和处理。
3. 分析讨论
本文提出两种红外图像的仿真方法,传统的红外图像仿真方法,需要进行Matlab仿真,仿真结束后,再进行定点化设计,才能指导FPGA进行编程和实现,最后启动ModelSim的仿真,并且传统的ModelSim仿真并不能直接对图像数据的输入进行仿真并且可视化,而是制作相关的递增或者递减的特征数据作为输入,并且Matlab仿真同样以该特征数据作为输入,进行仿真,最后对2组仿真数据结果进行比对,比对结果一致代表该算法在FPGA中运行正常,能达到期望的算法效果。该过程复杂、繁琐、开发效率低下、开发周期长等问题不可忽视。所以本文在传统的红外图像仿真方法上进行了改进和优化,提出了一种新的基于ModelSim可视化的红外图像仿真方法与系统。该种方法在传统方法上省去了Matlab仿真的过程和环节,同时也省去了定点化的设计过程。在算法原理设计完成后,启动FPGA硬件描述语言的编写和仿真,只是在仿真的时候,输入图像可以用之前采集好的红外图像或者用PS工具生成一张图片,保存为.raw文件,在仿真输入的时候用binary工具将raw格式文件转换成txt文件,就可以启动仿真过程了,仿真结束后,生成的结果TXT,再通过txt2bin工具,将txt格式的数据转换成bin文件,再通过直接改后缀名的方式,将.bin改成.raw文件。用ImageJ工具打开source.raw和result.raw文件就可以直观地对比显示在图像窗口上了。并且对于算法参数、计算过程的调整,也是很快得到相应的输出结果。该过程相对传统的Matlab仿真和ModelSim联合仿真要方便很多,尤其是在算法调整和参数的调整的情况下,又要重复一遍Matlab仿真,再去ModelSim仿真的过程。但是该种方法对于红外图像算法原理的理解和FPGA逻辑实现图像算法的能力要求比较高。并且本文针对红外图像的仿真方法与传统的红外图像仿真方法,在适用范围上是一样的,对象都是红外图像的算法仿真。针对具体的算法模型,需要将算法分解成各计算步骤,然后针对各计算步骤进行数据仿真,所以对于其他文献[7]中不同的算法,比如弱小目标的背景的抑制,突出目标的增强算法等都是一样的仿真过程。
4. 结论
对于红外图像处理算法在FPGA的实现过程中,本文阐述了传统的仿真方法,先进行Matlab仿真,仿真效果达到的前提下,再进行定点化设计,指导FPGA进行逻辑设计,完成算法原理的实现,最后启动ModelSim仿真,而且仿真结果的正确评判标准是与Matlab仿真结果比对一致,不一致的话,要优化定点化过程,再进行仿真,重复直至结果一致。而本文的仿真方法基于ModelSim的可视化仿真,省去了上述繁琐的开发过程,直接将图像源文件转化后导入ModelSim仿真,算法处理完成后,转成图像结果文件进行比对,用可视化的方式评判图像经过算法处理之后是否达到算法原理期望达到的算法效果。同时如果算法未到达期望效果,通过调整参数、算法实现过程,以及追溯输入图像、写入、读出内存过程,判断图像算法计算过程中数据的正确与否。所以该方法与传统的红外图像仿真方法相比,评估算法效果以可视化显示输入、输出对比图差异性来达到。评估算法计算过程的正确性,同样可以追溯数据处理过程的每一步的正确性来达到。所以该仿真方法的仿真效果是与传统的方法一致的。但是开发过程缩减了和效率上大大提升了,开发周期短。尤其是在反复调参和优化过程中,显得更为明显和方便便捷。
-
图 4 不同分布方式的扩张卷积感受野对比。(a) 3×3的标准卷积感受野;(b) 3×3的扩张卷积感受野(空洞率=2);(c) 锯齿状分布扩张卷积感受野
Figure 4. Comparison of dilated convolution receptive field with different distribution modes (a)The receptive field of 3×3 standard convolutions; (b) The receptive field of 3×3 dilated convolution (dilation ratio=2); (c) Serrated distribution dilated convolution receptive field
图 10 第1组对比实验融合结果。(a) PCA; (b) NSCT_SM_PCNN; (c) RSIFNN; (d) DRPNN; (e) PanNet; (f)双分支; (g) U2Fusion; (h) HANet; (i) DMRN-Net; (j)本文算法
Figure 10. Fusion results of the first set of comparative experiments. (a) PCA; (b) NSCT_SM_PCNN; (c) RSIFNN; (d) DRPNN; (e) PanNet; (f) Double branch; (g) U2Fusion; (h) HANet; (i) DMRN-Net; (j) Proposed algorithm
图 11 第2组对比实验融合结果。(a) PCA; (b) NSCT_SM_PCNN; (c) RSIFNN; (d) DRPNN; (e) PanNet; (f) 双分支; (g) U2Fusion; (h) HANet; (i) DMRN-Net; (j)本文算法
Figure 11. Fusion results of the second set of comparative experiments. (a) PCA; (b) NSCT_SM_PCNN; (c) RSIFNN; (d) DRPNN; (e) PanNet; (f) Double branch; (g) U2Fusion; (h) HANet; (i) DMRN-Net (j) Proposed algorithm
表 1 第1组不同算法实验数据
Table 1 The first set of experimental data of different algorithms
Algorithms CC↑ PSNR↑ SAM↓ sCC↑ UIQI↑ Time/s↓ PCA 0.4373 17.2903 8.3840 0.5512 0.6587 0.0643 NSCT_SM_PCNN 0.9318 28.4791 4.0874 0.7985 0.8091 86.7521 RSIFNN 0.8734 20.5217 8.0587 0.7785 0.8127 0.8032 DRPNN 0.9421 28.3581 3.8354 0.7821 0.8548 1.5214 PanNet 0.9721 30.5549 2.1245 0.7743 0.8611 0.7749 双分支 0.9784 29.8364 1.9743 0.8019 0.8546 0.8544 U2Fusion 0.9816 30.8673 1.7374 0.8251 0.8852 0.7965 HANet 0.9894 31.1665 1.6885 0.8378 0.9045 0.8247 DMRN-Net 0.9931 31.7482 1.6401 0.8414 0.9136 0.8472 Proposed 0.9953 33.2601 1.5946 0.8468 0.9244 0.7826 表 2 第2组不同算法实验数据
Table 2 The second set of experimental data of different algorithms
Algorithms CC↑ PSNR↑ SAM↓ sCC↑ UIQI↑ Time/s↓ PCA 0.3679 16.8396 7.8233 0.4315 0.6218 0.0658 NSCT_SM_PCNN 0.9142 27.7532 4.3214 0.7783 0.8324 80.6325 RSIFNN 0.8612 18.3357 7.8521 0.7652 0.8052 0.7935 DRPNN 0.9217 26.2145 3.7412 0.7624 0.8375 1.3254 PanNet 0.9654 30.1842 2.2156 0.7839 0.8501 0.7683 双分支 0.9751 29.2644 2.0546 0.8121 0.8478 0.8774 U2Fusion 0.9807 29.8485 1.7681 0.8335 0.8813 0.8157 HANet 0.9887 30.8674 1.6997 0.8364 0.9082 0.8344 DMRN-Net 0.9916 31.3149 1.6648 0.8374 0.9123 0.8548 Proposed 0.9947 32.8233 1.6073 0.8387 0.9221 0.7978 表 3 第1组无参考客观实验数据
Table 3 No reference objective experimental data for the first set
Algorithms Dλ↓ DS↓ QNR↑ PCA 0.1587 0.1697 0.6985 NSCT_SM_PCNN 0.1042 0.1127 0.7948 RSIFNN 0.0932 0.1088 0.8081 DRPNN 0.0898 0.0927 0.8258 PanNet 0.0723 0.0764 0.8568 双分支 0.0714 0.0743 0.8596 U2Fusion 0.0756 0.0785 0.8518 HANet 0.0693 0.0681 0.8673 DMRN-Net 0.0583 0.0635 0.8819 Proposed 0.0574 0.0617 0.8844 表 4 第2组无参考客观实验数据
Table 4 No reference objective experimental data for the second set
Algorithms Dλ↓ DS↓ QNR↑ PCA 0.1658 0.1754 0.6879 NSCT_SM_PCNN 0.1325 0.1388 0.7471 RSIFNN 0.0974 0.1243 0.7904 DRPNN 0.0951 0.0934 0.8204 PanNet 0.0758 0.0803 0.8400 双分支 0.0743 0.0785 0.8530 U2Fusion 0.0769 0.0797 0.8495 HANet 0.0708 0.0757 0.8589 DMRN-Net 0.0621 0.0686 0.8736 Proposed 0.0594 0.0621 0.8822 表 5 第1组消融实验数据
Table 5 The first set of ablation experiment data
Methods CC↑ PSNR↑ SAM↓ sCC↑ UIQI↑ a 0.9913 32.4855 1.6343 0.8394 0.9167 b 0.9934 32.8586 1.6257 0.8434 0.9175 c 0.9953 33.2601 1.5946 0.8468 0.9244 表 6 第2组消融实验数据
Table 6 The second set of ablation experiment data
Methods CC↑ PSNR↑ SAM↓ sCC↑ UIQI↑ a 0.9906 31.8541 1.6371 0.8342 0.9134 b 0.9927 32.4387 1.6288 0.8366 0.9161 c 0.9947 32.8233 1.6073 0.8387 0.9221 -
[1] TU T M, HUANG P S, HUNG C L, et al. A fast intensity-hue-saturation fusion technique with spectral adjustment for IKONOS imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 309-312. DOI: 10.1109/LGRS.2004.834804
[2] Pal S K, Majumdar T J, Bhattacharya A K. ERS-2 SAR and IRS-1C LISS Ⅲ data fusion: A PCA approach to improve remote sensing based geological interpretation[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2007, 61(5): 281-297. DOI: 10.1016/j.isprsjprs.2006.10.001
[3] TU T M, LEE Y C, CHANG C P, et al. Adjustable intensity-hue-saturation and Brovey transform fusion technique for IKONOS/QuickBird imagery[J]. Optical Engineering, 2005, 44(11): 116201. DOI: 10.1117/1.2124871
[4] Burt P J, Adelson E H. The Laplacian Pyramid as a Compact Image Code[M]. Readings in Computer Vision. Morgan Kaufmann, 1987: 671-679.
[5] Ranchin T, Wald L. The wavelet transform for the analysis of remotely sensed images[J]. International Journal of Remote Sensing, 1993, 14(3): 615-619. DOI: 10.1080/01431169308904362
[6] GUO K, Labate D, Lim W Q. Edge analysis and identification using the continuous shearlet transform[J]. Applied and Computational Harmonic Analysis, 2009, 27(1): 24-46. DOI: 10.1016/j.acha.2008.10.004
[7] DA Cunha A L, ZHOU J, DO M N. The nonsubsampled contourlet transform: theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15(10): 3089-3101. DOI: 10.1109/TIP.2006.877507
[8] Masi G, Cozzolino D, Verdoliva L, et al. Pansharpening by convolutional neural networks[J]. Remote Sensing, 2016, 8(7): 594. DOI: 10.3390/rs8070594
[9] WEI Y, YUAN Q, SHEN H, et al. Boosting the accuracy of multispectral image pansharpening by learning a deep residual network[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1795-1799. DOI: 10.1109/LGRS.2017.2736020
[10] YANG J, FU X, HU Y, et al. PanNet: A deep network architecture for pan-sharpening[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 5449-5457.
[11] 吴佼华, 杨学志, 方帅, 等. 基于双分支卷积神经网络的SAR与多光谱图像融合实验[J]. 地理与地理信息科学, 2021, 37(2): 22-30. DOI: 10.3969/j.issn.1672-0504.2021.02.004 WU J H, YANG X Z, FANG S, et al. SAR and multispectral image fusion experiment based on dual branch convolutional neural network [J]. Geography and Geo-information Science, 2021, 37(2): 22-30. DOI: 10.3969/j.issn.1672-0504.2021.02.004
[12] XU H, MA J, JIANG J, et al. U2Fusion: A unified unsupervised image fusion network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 44(1): 502-518.
[13] LIU Q, HAN L, TAN R, et al. Hybrid attention based residual network for pansharpening[J]. Remote Sensing, 2021, 13(10): 1962. DOI: 10.3390/rs13101962
[14] 董张玉, 许道礼, 张晋, 等. 基于双分支多尺度残差融合嵌套的SAR和多光谱图像融合架构与实验[J]. 地理与地理信息科学, 2023, 39(1): 23-30. DONG Z Y, XU D L, ZHANG J, et al. Architecture and experiments of SAR and multispectral image fusion based on double-branch multiscale residual-fusion nesting[J]. Geography and Geo-information Science, 2023, 39(1): 23-30.
[15] MIN A, GUO Z, LI H, et al. JMnet: Joint metric neural network for hyperspectral unmixing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 1-12.
[16] 郭彭浩. 基于卷积神经网络和贝叶斯理论的遥感图像Pansharpening算法研究[D]. 南京: 南京信息工程大学, 2021. GUO P H. Research on Pansharpening Algorithm of Remote Sensing Image Based on Convolution Neural Network and Bayesian Theory[D]. Nanjing: Nanjing University of Information Engineering, 2021.
[17] 申兴成, 杨学志, 董张玉, 等. 结合扩张卷积的残差网络SAR图像去噪[J]. 测绘科学, 2021, 46(12): 106-114. SHEN X C, YANG X Z, DONG Z Y, et al. Residual network combined with dilated convolution for SAR image denoising[J]. Science of Surveying and Mapping, 2021, 46(12): 106-114.
[18] 黄玲琳, 李强, 路锦正, 等. 基于多尺度和注意力模型的红外与可见光图像融合[J]. 红外技术, 2023, 45(2): 143-149. http://hwjs.nvir.cn/article/id/10e9d4ea-fb05-43a5-817a-bcad09f693b8 HUANG L L, LI Q, LU J Z, et al. Infrared and visible image fusion based on multi-scale and attention model[J]. Infrared Technology, 2023, 45(2): 143-149. http://hwjs.nvir.cn/article/id/10e9d4ea-fb05-43a5-817a-bcad09f693b8
[19] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[20] WANG Q, WU B, ZHU P, et al. Supplementary material for 'ECA-Net: Efficient channel attention for deep convolutional neural networks[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 13-19.
[21] LIU Y, SHAO Z, Hoffmann N. Global attention mechanism: retain information to enhance channel-spatial interactions[J/OL]. arXiv preprint arXiv, 2021, https://arxiv.org/abs/2112.05561.
[22] DONG C, LOY C C, HE K, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 38(2): 295-307.
[23] LI P, LEE S H, HSU H Y, et al. Nonlinear fusion of multispectral citrus fruit image data with information contents[J]. Sensors, 2017, 17(1): 142.
[24] ZHOU J, Civco D L, Silander J A. A wavelet transform method to merge Landsat TM and SPOT panchromatic data[J]. International Journal of Remote Sensing, 1998, 19(4): 743-757.
[25] WANG Z, Bovik A C. A universal image quality index[J]. IEEE Signal Processing Letters, 2002, 9(3): 81-84.
[26] CHENG J, LIU H, LIU T, et al. Remote sensing image fusion via wavelet transform and sparse representation[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 104: 158-173.
[27] WANG X L, CHEN C X. Image fusion for synthetic aperture radar and multispectral images based on sub-band-modulated non-subsampled contourlet transform and pulse coupled neural network methods[J]. The Imaging Science Journal, 2016, 64(2): 87-93.
[28] SHAO Z, CAI J. Remote sensing image fusion with deep convolutional neural network[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(5): 1656-1669.