Infrared and Visible Image Fusion Algorithm Based on Gaussian Fuzzy Logic and Adaptive Dual-Channel Spiking Cortical Model
-
摘要: 为了克服当前的红外与可见光图像融合算法存在着目标不够突出、纹理细节丢失等现象,本文提出了一种基于高斯模糊逻辑和自适应双通道脉冲发放皮层模型(Adaptive Dual-Channel Spiking Cortical Model, ADCSCM)的红外与可见光图像融合算法。首先,使用非下采样剪切波变换(Non-Subsampled Sheartlet Transform, NSST)将源图像分解为低频和高频部分。其次,结合新拉普拉斯能量和(New Sum of Laplacian, NSL)与高斯模糊逻辑,设定双阈值来指导低频部分进行融合;同时,采用基于ADCSCM的融合规则来指导高频部分进行融合。最后,使用NSST逆变换进行重构来获取融合图像。实验结果表明,本文算法主观视觉效果最佳,并在互信息、信息熵和标准差3项指标上高于其他7种融合算法,能够有效突出红外目标、保留较多纹理细节,提高融合图像的质量。
-
关键词:
- 图像融合 /
- 非下采样剪切波变换 /
- 高斯模糊逻辑 /
- 自适应双通道脉冲发放皮层模型
Abstract: To overcome the shortcomings of current infrared and visible image fusion algorithms, such as non-prominent targets and the loss of many textural details, a novel infrared and visible image fusion algorithm based on Gaussian fuzzy logic and the adaptive dual-channel spiking cortical model (ADCSCM) is proposed in this paper. First, the source infrared and visible images are decomposed into low- and high-frequency parts by non-subsampled shearlet transform (NSST). Then, these are combined with the new sum of the Laplacian and Gaussian fuzzy logic, and dual thresholds are set to guide the fusion of the low-frequency part; simultaneously, the fusion rule based on the ADCSCM is used to guide the fusion of the high-frequency part. Finally, the fused low- and high-frequency parts are reconstructed using inverse NSST to obtain the fused image. The experimental results show that the proposed algorithm has the best subjective visual effect and is better than the other seven fusion algorithms in terms of mutual information, information entropy, and standard deviation. Furthermore, the proposed algorithm can effectively highlight the infrared target, retain more textural details, and improve the quality of the fused image. -
0. 引言
大视场多目标监视是目前红外搜索跟踪领域研究的热点,该领域正朝着高分辨率、超大视场成像的方向发展[1-3]。对应大视场下多目标的监视与跟踪任务,视场的增大,红外图像的背景成分变得极其复杂,又加上来自地面建筑物、地杂波等的干扰,极其容易在图像区域产生伪目标,造成红外全景搜索跟踪系统的虚警[4-7]。在实施全景搜索跟踪的任务过程中,视场中难免出现虚假运动目标,其中既有静止物体,也可能包含运动方向与真实目标不一致的物体。如果不能对以上虚假目标及时进行识别并剔除,将会严重影响后续搜索跟踪任务的执行。
针对红外搜索跟踪容易遇到的上述问题,王卫华[8]等人提出了一种基于兴趣区(region of interest)提取的目标实时监测算法,根据目标运动特性与灰度特性快速提取目标可能存在的兴趣区,再针对兴趣区内的局部目标图像切片,进一步剔除虚假目标干扰;陈炳文[9]提出一种基于时空融合与粒子滤波的弱目标检测算法,首先利用像素点的帧间和邻域相关性,采用短程非参数核建模算法检测候选目标,接着使用粒子滤波跟踪候选目标,以剔除虚假目标得到真实航迹;王雪梅[10]等提出了基于背景检测的单帧检测弱小目标改进算法,结合多方向多极梯度算法,对背景预测初步检测出来的可能目标点进一步检测,从而排除虚假目标;罗举平[11]等针对红外目标检测任务,提出了变门限检测与跟踪的方法,减少了虚假量测的数量。张艳艳[12]等引入Lucas-Kanade(LK)光流法,对光流结果进行最大类间方差分割,视光流不连续区域为真实运动目标;西北工业大学[13]利用Lucas-Kanade光流法对连续帧红外图像检测疑似运动区域,再通过SVD(singular value decomposition)分解与目标背景重构检测弱小目标;Lei Wang[14]等利用先验概率降低视频中目标检测的误报率;Recchia Giuseppe[15]等将Lucas-Kanade光流法应用于无人机光电视避系统,有效降低了误警率与虚警率。然而上述方法并不专门针对全景图像,因此对于全景图像中同一运动目标帧间距离过大造成的影响,这些方法并不能有效解决。类似方法甚至会错把真实运动目标当作虚假目标加以剔除,因而并不适用于降低红外搜跟系统的虚警率。本文针对以上问题提出了一种基于Lucas-Kanade光流特征的红外全景系统虚假目标甄别与剔除的方法。
1. 建立图像金字塔
选取前后相邻两帧红外全景图像I和J,为图像I和J分别建立金字塔表达${\{ {I^L}\} _{L = 0,...{L_m}}}$和${\{ {J^L}\} _{L = 0,...{L_m}}}$,这里Lm通常取为3,也就是金字塔层数一般为4。把原始图像作为第0层,通过高斯滤波并令宽高缩小2L倍的图像作为第L层,多层图像组合类似金字塔,如图 1所示。
2. 计算前后帧图像光流
由于红外全景搜索跟踪系统的任务在于利用360°全景影像实现对周围环境态势感知的能力,因此往往将目标定为包括人、车辆、舰船以及飞机等相比环境温度较高的物体。在实际图像中该类目标一般呈现较高的灰度值,因此本文利用二值化将图像中的高亮目标都事先提取出来,在这些高亮目标区域中随机选择若干像素记为该目标对应的像素点u,接下来利用LK光流法思想依次从最高层开始计算目标像素点u对应的LK光流dL,并取LK光流dL对应层光流初始值gL的和为下一层光流的初始值,直至迭代到原始图像层(第0层),最终获取目标像素点u在原始图像层的光流值按照如下步骤计算图像光流d,接着利用光流d的模值与角度为主要特征,使用聚类算法将真实运动目标和虚假运动目标区分开来。首先计算前后帧图像间的光流:
初始化最高层光流的初始值${g^{{L_m}}} = {\left[ {0\;\;0} \right]^{\text{T}}}$,令L=Lm,每迭代一次,L减1,直到L=0:
由于图像金字塔建立过程中,图像的长宽依次缩小一倍,因此针对第L层图像,计算图像IL中像素点u对应的位置:$u{\text{ = [}}u_x^L\;\;u_y^L{\text{] = }}u{\text{/}}{{\text{2}}^L}$;
计算图像IL在x方向的梯度:
$$ I_x^L(x,y) = \frac{{{I^L}(x + 1,y) - {I^L}(x - 1,y)}}{2} $$ (1) 计算图像IL在y方向的梯度:
$$ I_y^L(x,y) = \frac{{{I^L}(x,y + 1) - {I^L}(x,y - 1)}}{2} $$ (2) 计算空间矩阵:
$$ \boldsymbol{G} = \sum\limits_{x = u_x^L - {w_x}}^{x = u_x^L + {w_x}} {\sum\limits_{y = u_y^L - {w_y}}^{y = u_y^L + {w_y}} {\left[ {\begin{array}{*{20}{c}} {I_x^{\text{L}}I_x^{\text{L}}}&{I_x^LI_y^L} \\ {I_x^LI_y^L}&{I_y^LI_y^L} \end{array}} \right]} } $$ (3) 式中:wx、wy表示u处具有相同光流邻域的大小。
初始化迭代LK光流初始值d0=[0 0]T;
令k=1,每迭代一次k加1,直到匹配差异向量$ \left| {{\eta ^k}} \right| $小于1:
定义此时(x, y)处前后两帧图像的差异δI(x, y),则有:
$$ \delta {I^k}(x,y) = {I^L}(x,y) - {J^L}(x + g_x^L + d_x^{k - 1},y + g_y^L + d_y^{k - 1}) $$ (4) 计算图像差异:
$$ {b_k} = \sum\limits_{x = u_x^L - {w_x}}^{x = u_x^L + {w_x}} {\sum\limits_{y = u_y^L - {w_y}}^{y = u_y^L + {w_y}} {\left[ {\begin{array}{*{20}{c}} {\delta {I^k}(x,y){I_x}(x,y)} \\ {\delta {I^k}(x,y){I_y}(x,y)} \end{array}} \right]} } $$ (5) 计算匹配差异向量:
$$ η^{k}=\boldsymbol{ G}^{−1}b_{k} $$ (6) 计算光流:
为下一次迭代提供初始值dk=dk−1+ηk;
结束k上的迭代,得到第L层图像上的光流优化值dL=dk;
为第L-1层图像提供光流初始值gL−1=2(gL+dL);
结束L上的迭代,最终计算得到光流d=g0+d0;
得到图像J中对应点坐标v=u+d。
3. 重新表达目标光流
上述步骤求得前帧图像I中目标区域像素点u在前后两帧图像对应的光流d,以及该像素点在后帧图像J中的位置v。其中光流d为一个二维向量,该向量标识图像平面内由位置u指向位置v的运动位移。而同一个运动目标其运动位移应该是一致的,这就给区分真实运动目标和虚假运动目标带来了先决条件。针对图像I中经过二值化后获得的目标区域,每个区域选择m个像素点(u1, u2, …, um),本方案根据图像视场范围以及处理器运算能力综合考量选择m=5。对于每一个像素点ui,按照第2章所述方法得到对应的光流d(ui),然后利用算术平均值来求取对应目标区域Φ的光流dΦ:
$$ {d_\varPhi } = \frac{{\sum\limits_{i = 1}^m {d({u_i}} )}}{m} $$ (7) 4. 目标分类
对于地面建筑或者地杂波等产生的虚假目标,由于全景成像系统镜头本身的运动,造成其通过上述计算也会产生光流值,但该光流值并不能反映像素点的实际运动。虚假目标光流值与真实目标光流值会有显著不同,这主要表现在光流向量的方向和大小两个方面。
1)虚假目标由于本身静止或运动范围很小,在叠加了红外摄像机自身旋转运动后,其光流方向会有高度趋同性,而真实运动目标的光流方向应与其实际位移方向一致,从而造成虚假目标与运动目标在运动方向上的显著区别;
2)虚假目标因为本身基本处于静止状态,表征运动位移的光流仅反映红外摄像机自身的运动,实际观察光流值大小应不大于10个像素,这也是区别于实际运动物体的显著特征。
设$\overrightarrow d = (x,y)$,令$\left| d \right| = \sqrt {{x^2} + {y^2}} $表示光流向量的大小,令θ表示光流向量的方向,其中:
$$ \theta = \left\{ \begin{array}{l} \arccos \frac{x}{{\sqrt {{x^2} + {y^2}} }},y \geqslant 0 \hfill \\ 2{\text{π }} - \arccos \frac{x}{{\sqrt {{x^2} + {y^2}} }},y < 0 \hfill \\ \end{array} \right. $$ (8) 创建向量$\vec L = (\left| d \right|,\theta )$用于重新表达光流,目的在于后续根据光流区分真实运动目标与静止虚假目标。根据前述第3章中的分析,虚假静止目标的表征向量$\vec L$会具有很小的$\left| d \right|$值,且θ值会比较接近,将其标注到二维直角坐标系中虚假静止目标的向量L坐标会高度集中,而真实运动目标则会大范围随机分布,如图 2所示。
最后利用聚类算法将得到的目标光流进行分类,由图 2可以发现真实运动目标与虚假运动目标的光流分布区域有较大区别,为了把二者快速区分开来,首先在离θ轴较近的光流表征向量$\vec L$中随机选择一个作为第一个初始聚类中心,然后选择距离该中心最远的一个光流表征向量$\vec L$作为第二个初始聚类中心,通过计算各光流表征向量$\vec L$与初始化聚类中心的距离,将这些光流表征向量$\vec L$重新划归至距离最近的类别,并以新类别中各光流表征向量$\vec L$的均值作为新的聚类中心,持续迭代直至光流表征向量的分配聚类情况没有更新,以实现最终把真实运动目标(类别1)与虚假静止目标(类别2)分开的目的。
5. 实验结果
为验证本文的虚警率降低方法是否具有普遍性,项目组利用研发成功的红外全景成像设备采集不同环境下(室内、室外)的中波红外全景图像,在Windows操作系统下使用Visual C++开发环境将本文算法实现,将不同场景下前后两帧全景图作为输入,以验证算法有效性。
观察图 3和图 4可以发现,无论室外还是室内环境,复杂背景下总会引入干扰,同时搜索跟踪系统自身旋转导致其中的高亮物体都会得到表征运动的光值,因此很多由于干扰产生的伪目标极易被搜索跟踪系统误判为真实运动目标。引入本文算法后,系统对输入的前后两帧全景图像计算LK光流,随后将重点区域光流进行包括大小与方向的比对,按照聚类思想将其实施二分类,重复迭代直至真实运动物体被区分出来。根据图 3与图 4中处理后图像可以发现,红外全景图像中的真实运动物体均以实线框标记出来,而由于干扰造成的虚假运动目标被虚线框标记出来,由此可见本文算法较好地将红外搜索跟踪系统所获全景场景中的虚假运动目标加以抑制,从而有效降低了该类系统的虚警率。
6. 结论
红外全景监控设备是未来红外热像系统化发展的主要趋势,而大视场的引入必然加大后续图像处理设备的工作量,对于嵌入式图像处理系统由于本身运算能力有限,因此在预处理阶段自动排除虚假目标以减轻后续处理运算的压力就显得尤为必要。本文所述方法通过对实际采集的红外全景序列图像加以分析,很好地剔除了造成干扰的虚假运动目标,实验结果也验证了该方法的有效性。未来将把该方法向以GPU/FPGA+DSP为主处理器的嵌入式平台移植,同时针对特征提取阶段做更为深入的研究融入更多特征以提升虚假目标检测效果,为红外搜索跟踪系统等产品提供有效的技术支持。
-
表 1 4组融合图像的客观评价结果
Table 1 The objective evaluation results of four groups of fused images
Fused
imagesEvaluation indexes Algorithms CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472 IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566 SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934 SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731 VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724 Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960 IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731 SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353 SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824 VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040 Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305 IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793 SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945 SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559 VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164 Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774 IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089 SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494 SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357 VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882 -
[1] 刘佳, 李登峰. 马氏距离与引导滤波加权的红外与可见光图像融合[J]. 红外技术, 2021, 43(2): 162-169. http://hwjs.nvir.cn/article/id/56484763-c7b0-4273-a087-8d672e8aba9a LIU Jia, LI Dengfeng. Infrared and visible light image fusion based on mahalanobis distance and guided filter weight-ing[J]. Infrared Technology, 2021, 43(2): 162-169. http://hwjs.nvir.cn/article/id/56484763-c7b0-4273-a087-8d672e8aba9a
[2] 江泽涛, 何玉婷, 张少钦. 一种基于对比度增强和柯西模糊函数的红外与弱可见光图像融合算法[J]. 光子学报, 2019, 48(6): 149-158. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201906019.htm JIANG Zetao, HE Yuting, ZHANG Shaoqin. Infrared and low-light-level visible image fusion algorithm based on contrast enhancement and cauchy fuzzy function[J]. Acta Photonica Sinica, 2019, 48(6): 149-158. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201906019.htm
[3] MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.
[4] 王建, 吴锡生. 基于改进的稀疏表示和PCNN的图像融合算法研究[J]. 智能系统学报, 2019, 14(5): 922-928. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201905011.htm WANG Jian, WU Xisheng. Image fusion based on the improved sparse representation and PCNN[J]. CAAI Transactions on Intelligent Systems, 2019, 14(5): 922-928. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201905011.htm
[5] LIU Z, FENG Y, CHEN H, et al. A fusion algorithm for infrared and visible based on guided filtering and phase congruency in NSST domain[J]. Optics & Lasers in Engineering, 2017, 97: 71-77.
[6] 邓立暖, 尧新峰. 基于NSST的红外与可见光图像融合算法[J]. 电子学报, 2017, 45(12): 2965-2970. DOI: 10.3969/j.issn.0372-2112.2017.12.019 DENG Linuan, YAO Xinfeng. Research on the fusion algorithm of infrared and visible images based on non-subsampled shearlet transform[J]. Acta Electronica Sinica, 2017, 45(12): 2965-2970. DOI: 10.3969/j.issn.0372-2112.2017.12.019
[7] 王聪, 钱晨, 孙伟, 等. 基于SCM和CST的红外与可见光图像融合算法[J]. 红外技术, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007 WANG Cong, QIAN Chen, SUN Wei, et al. Infrared and visible images fusion based on SCM and CST[J]. Infrared Technology, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007
[8] TAN W, ZHOU H, SONG J, et al. Infrared and visible image perceptive fusion through multi-level Gaussian curvature filtering image decomposition[J]. Applied Optics, 2019, 58(12): 3064-3073. DOI: 10.1364/AO.58.003064
[9] 冯贺, 李立, 赵凯. 基于拉普拉斯分解耦合亮度调节的可见光与红外图像融合算法[J]. 电子测量与仪器学报, 2020, 34(10): 91-97. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202010011.htm FENG He, LI Li, ZHAO Kai. Fusion algorithm of visible and infrared image based on Laplace decomposition coupled with brightness adjustment[J]. Journal of Electronic Measurement and Instrument, 2020, 34(10): 91-97. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202010011.htm
[10] GUO K, LABATE D. Optimally sparse multidimensional representation using shearlets[J]. SIAM Journal on Mathematical Analysis, 2007, 39(1): 298-318. DOI: 10.1137/060649781
[11] 焦姣, 吴玲达. 向导滤波和NSST相结合的多光谱与全色图像融合算法[J]. 通信学报, 2018, 39(S2): 79-87. https://www.cnki.com.cn/Article/CJFDTOTAL-TXXB2018S2012.htm JIAO Jiao, WU Lingda. Multispectral and panchromatic images fusion method based on guided filter and NSST[J]. Journal on Communications, 2018, 39(S2): 79-87. https://www.cnki.com.cn/Article/CJFDTOTAL-TXXB2018S2012.htm
[12] ZHAN K, ZHANG H, MA Y. New spiking cortical model for invariant texture retrieval and image processing[J]. IEEE Transactions on Neural Networks, 2009, 20(12): 1980-1986. DOI: 10.1109/TNN.2009.2030585
[13] ZHAO C, HUANG Y, QIU S. Infrared and visible image fusion algorithm based on saliency detection and adaptive double-channel spiking cortical model[J]. Infrared Physics & Technology, 2019, 102: 102976.
[14] 罗娟, 王立平, 谭云兰. 二代Curvelet变换耦合细节度量模型的遥感图像融合算法[J]. 电子测量与仪器学报, 2019, 33(7): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY201907017.htm LUO Juan, WANG Liping, TAN Yunlan. Remote sensing image fusion method using second generation curvelet transform coupled with detail metric model[J]. Journal of Electronic Measurement and Instrument, 2019, 33(7): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY201907017.htm
[15] 苏金凤, 张贵仓, 汪凯. 结合鲁棒主成分分析和非下采样轮廓波变换的红外与可见光图像的压缩融合[J]. 激光与光电子学进展, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm SU J F, ZHANG G C, WANG K. Compressed fusion of infrared and visible images combining robust principal component analysis and non-subsampled contour transform[J]. Laser & Optoelectronics Progress, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm
[16] YIN S, CAO L, TAN Q, et al. Infrared and visible image fusion based on NSCT and fuzzy logic[C]//Proceedings of the 2010 IEEE International Conference on Mechatronics and Automation, 2010: 671-675.
[17] 朱攀, 黄战华. 基于二维经验模态分解和高斯模糊逻辑的红外与可见光图像融合[J]. 光电子·激光, 2017, 28(10): 1156-1162. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201710016.htm ZHU Pan, HUANG Zhanhua. Fusion of infrared and visible images based on BEMD and GFL[J]. Journal of Optoelectronics · Laser, 2017, 28(10): 1156-1162. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201710016.htm
[18] 闫利, 向天烛. NSCT域内结合边缘特征和自适应PCNN的红外与可见光图像融合[J]. 电子学报, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002 YAN Li, XIANG Tianzhu. Fusion of infrared and visible based on edge feature and adaptive PCNN in NSCT domain[J]. Acta Electronica Sinica, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002
[19] 侯瑞超, 周冬明, 聂仁灿, 等. 结合HSI变换与双通道脉冲发放皮层的彩色多聚焦图像融合[J]. 云南大学学报: 自然科学版, 2019, 41(2): 245-252. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201902006.htm HOU Ruichao, ZHOU Dongming, NIE Rencan, et al. Multi-focus color image fusion using HSI transform and dual channel spiking cortical model[J]. Journal of Yunnan University: Natural Sciences Edition, 2019, 41(2): 245-252. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201902006.htm
[20] Nencini F, Garzelli A, Baronti S, et al. Remote sensing image fusion using the curvelet transform[J]. Information Fusion, 2007, 8(2): 143-156. DOI: 10.1016/j.inffus.2006.02.001
[21] ZHANG Q, Guo B. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Process, 2009, 89(7): 1334-1346. DOI: 10.1016/j.sigpro.2009.01.012
[22] MA J, CHEN C, LI C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100-109. DOI: 10.1016/j.inffus.2016.02.001
[23] QU X, YAN J, XIAO H, et al. Image fusion algorithm based on spatial frequency-motivated pulse coupled neural networks in nonsubsampled contourlet transform domain[J]. Acta Automatica Sinica, 2008, 34(12): 1508-1514. DOI: 10.1016/S1874-1029(08)60174-3
[24] YIN M, LIU X, LIU Y, et al. Medical image fusion with parameter-adaptive pulse coupled neural network in nonsubsampled shearlet transform domain[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(1): 49-64. DOI: 10.1109/TIM.2018.2838778
-
期刊类型引用(1)
1. 花文波,赵城慷,高大友,花文涛. 一种温度补偿调焦红外系统丢包检测方法. 红外技术. 2024(09): 1081-1086 . 本站查看
其他类型引用(0)