基于热辐射信息保留的图像融合算法

钱震龙, 陈波

钱震龙, 陈波. 基于热辐射信息保留的图像融合算法[J]. 红外技术, 2021, 43(9): 861-868.
引用本文: 钱震龙, 陈波. 基于热辐射信息保留的图像融合算法[J]. 红外技术, 2021, 43(9): 861-868.
QIAN Zhenlong, CHEN Bo. Image Fusion Algorithm Based on Thermal Radiation Information Retention[J]. Infrared Technology , 2021, 43(9): 861-868.
Citation: QIAN Zhenlong, CHEN Bo. Image Fusion Algorithm Based on Thermal Radiation Information Retention[J]. Infrared Technology , 2021, 43(9): 861-868.

基于热辐射信息保留的图像融合算法

详细信息
    作者简介:

    钱震龙(1994-), 男, 四川蓬溪人, 硕士研究生, 主要研究方向为嵌入式技术、红外图像处理。E-mail: 3143078364@qq.com

  • 中图分类号: TN911.73

Image Fusion Algorithm Based on Thermal Radiation Information Retention

  • 摘要: 针对现有的红外与可见光图像融合算法无法很好地保留红外图像热辐射信息这一问题,提出了一种基于热辐射信息保留的图像融合算法。通过NSCT(non-subsampled contourlet transform)变换对红外与可见光图像进行多尺度分解,得到各自的高频子带和低频子带,可见光低频子带部分经拉普拉斯算子提取特征后与红外低频子带部分叠加得到融合图像的低频系数,高频部分使用基于点锐度和细节增强的融合规则进行融合以得到高频系数,最后通过逆NSCT变换重构得到融合图像。实验表明,相较于其它图像融合算法,所提算法能在保留红外图像热辐射信息的同时,保有较好的清晰细节表现能力,并在多项客观评价指标上优于其它算法,具有更好的视觉效果,且在伪彩色变换后有良好的视觉体验,验证了所提算法的有效性和可行性。
    Abstract: Focusing on the issue that existing algorithms of infrared and visible image fusion cannot retain thermal radiation information from infrared images, an image fusion algorithm based on thermal radiation information retention was proposed. Multi-scale decomposition of infrared and visible light images was performed through NSCT transformation to obtain the respective high-frequency sub-bands and low-frequency sub-bands. The low-frequency sub-bands of visible light were extracted by the Laplacian and superimposed with the infrared low-frequency sub-bands to obtain low-frequency sub-bands of the fused image. The fusion rule, which is based on point sharpness, and detail enhancement were used to obtain the high-frequency coefficients of the high-frequency part; the fused image was then reconstructed through inverse NSCT transformation. The experimental results indicate that compared with other image fusion algorithms, the proposed algorithm can retain the thermal radiation information of infrared images, while maintaining good performance with clear details, and is superior to other algorithms in several objective evaluation indices. The proposed algorithm has better visual effects and a good visual experience after pseudo-color transformation, which verifies the effectiveness and feasibility of the proposed algorithm.
  • 如今,红外热成像技术在各领域都得到了很好的运用和发展。红外图像的独有特征是热辐射信息,但因其成像原理,红外图像难以避免地存在对比度不足、图像边缘不明显、细节信息不足等问题。可见光图像具有较为丰富的纹理信息和清晰的边缘,具有较强的对比度,可以很好地与红外图像互补。将红外图像和可见光图像的特征信息提取融合,可以得到信息更加丰富的图像,并能改善单一红外图像对人类视觉不友好这一问题,使融合后的图像不仅有红外图像的热辐射信息,还能体现出可见光丰富的纹理和轮廓。因此,使用合理的图像信息提取方法来将可见光图像中的细节纹理信息同红外图像中的热辐射信息进行结合,是提升融合性能的关键[1]

    近年来,很多学者对红外与可见光图像融合算法展开了研究并得到了相应的成果。常见的图像融合算法包括以多尺度变换为策略的离散小波变换[2]、平稳小波变换[3]、轮廓波变换(Contourlet)[4]、拉普拉斯金字塔变换[5]、非下采样轮廓波变换(NSCT)[6]、非下采样剪切波变换(non-subsampled shearlet transform,NSST)[7],以及近几年发展起来的以卷积神经网络为策略的深度学习[8]、自适应融合[9]等融合方法。这些方法虽然在红外与可见光图像融合上都取得了较好的视觉效果,但由于它们在研究过程中更关注如何突出显著目标、增强图像融合对比度及细节信息,而忽视了红外热辐射信息,故在保留红外热辐射信息上并没有取得显著的效果,融合后的图像不能很好地体现出场景热辐射分布,这将限制红外与可见光图像融合技术在工业检测、体表温度筛查监控等社会领域的应用。在当今世界范围抗击新冠病毒疫情中,保留热辐射信息的红外可见光图像融合技术会是防止疫情扩散的一大助力。

    针对上述问题,本文提出一种基于热辐射信息保留的图像融合算法,利用NSCT变换将图像分解为高频和低频子带,对低频部分使用拉普拉斯算子提取特征并进行融合,高频部分使用基于点锐度和细节增强的融合规则进行融合,使融合后的图像不仅具有可见光图像的细节信息,同时还能完好保留红外图像整体上的热辐射强度和分布信息,最后通过逆NSCT变换得到最终的融合图像。

    NSCT不仅具备Contourlet变换的多尺度性和各向异性,同时还具有平移不变特性,有效避免了融合中出现的Gibbs现象,确保了融合图像的质量。结构上,NSCT由非下采样塔式滤波器组(non-subsampled pyramid filter bank,NSPFB)以及非下采样方向滤波器组(non-subsampled directional filter bank,NSDFB)两部分组成。NSCT首先通过NSPFB对图像进行多尺度变换得到多个子带,再经NSDFB对每个子带进行多方向变换,过程如图 1所示。

    图  1  NSCT变换示意图
    Figure  1.  NSCT transformation diagram

    非下采样金字塔(Non-Subsampled Pyramid,NSP)包含分解滤波器{H0(z), H1(z)}和合成滤波器{G0(z), G1(z)},要使变换能完全重构,就需要满足如下关系:

    $$ {\mathit{H}_0}(\mathit{z}){\mathit{H}_1}(\mathit{z}) + {\mathit{G}_0}(\mathit{z}){\mathit{G}_1}(\mathit{z})=1 $$ (1)

    NSCT每级分解中使用的分解滤波器都是对前一级分解中的分解滤波器进行采样得到的,采样用到的矩阵为$\left[ {\begin{array}{*{20}{c}} 2&0 \\ 0&2 \end{array}} \right]$,而NSP变换后,所得到的是和源图像尺寸一致的1+k个子带图像,即一个低通子带和多个带通子带图像。式(2)为NSPFB的滤波器数学表达式:

    $${H_n}\left( z \right) = \left\{ {\begin{array}{*{20}{l}} {{H_1}\left( z \right)\prod\limits_{j = 0}^{n - 2} {{H_0}\left( {{z^{{2^j}}}} \right)} , \quad 1 \leqslant n \leqslant {2^k}} \\ {\prod\limits_{j = 0}^{n - 1} {{H_0}\left( {{z^{{2^j}}}} \right)} , \quad n = {2^k}} \end{array}} \right.$$ (2)

    经过NSP变换后得到的子带,进一步进行l级的方向分解,可以得到2l个方向带通图像。对分解后的低频子带图像和方向带通图像进行需要的处理后,再通过逆NSCT变换,可以完成图像的相关处理。

    首先,分别对可见光图像和红外图像进行NSCT变换,得到各自的低频子带和高频子带,然后分别对低频子带和高频子带采取不同的融合策略进行融合。其中低频子带使用基于拉普拉斯算子特征提取的方法进行融合,高频子带通过基于点锐度和细节增强的方法进行融合,得到所有的融合子带后,再经NSCT反变换,即得到最终的融合图像。整体的融合框架如图 2所示。

    图  2  整体融合框架
    Figure  2.  Integrated framework

    要保留红外图像的热辐射信息,关键是在低频部分的合成中,尽可能不破坏红外低频子带的整体结构,同时将可见光低频子带中的关键结构信息与红外低频子带进行融合。现有的低频子带融合方法,如平均值融合[10]、基于视觉显著性融合[11]、加权平均融合、基于像素特征能量的加权融合、邻域特征结合IDCSCM(improved dual-channel spiking cortical model)融合[12]等方法旨在提高图像的视觉效果,但都在很大程度上牺牲了红外图像的热辐射信息,无法满足本文所提到的需求。使用拉普拉斯算子进行可见光低频子带信息提取,可以使其中的非关键信息值接近零值,减小低频融合过程中对红外低频信息的改变,且因拉普拉斯算子是一个线性、位移不变的算子,经算子处理后的子带具有零平均灰度[13],确保了低频部分的融合不会改变红外低频子带的平均灰度,满足需求。故本文提出一种基于拉普拉斯算子的特征提取低频融合方法,表达式如下:

    $$ {\mathit{F}_{\rm{N}}}(\mathit{i}, \mathit{j}) = {\mathit{A}_{\rm{N}}}(\mathit{i}, \mathit{j}) + \mathit{\alpha }{\mathit{B}_{\rm{N}}}(\mathit{i}, \mathit{j}) $$ (3)

    式中:FN为融合子带;AN为红外图像低频子带;BN为可见光图像低频子带经拉普拉斯特征提取后得到的特征系数;α为特征增益因子。由式可见,可通过调整α的大小来扩大或减小可见光低频特征系数对融合后低频子带系数的作用强弱,其值过小时,融合后图像的低频系数中可见光低频部分的结构信息体现不足,α过大时会破坏红外低频部分的结构信息,影响融合图像的质量和视觉效果。为了使α对于不同图像都能取得合适的数值,使用下式进行自适应取值:

    $$\alpha = \frac{1}{{l \times w}}\sum\limits_{i \in Q} {\sum\limits_{j \in Q} {H(I, i, j)} } $$ (4)

    式中:H为输入图像I在坐标(i, j)处取灰度值;lw分别为输入图像的横向像素宽度和纵向像素宽度。为了保持红外图像低频部分的平均强度不变,BN还应满足:

    $$\sum\limits_{(i, j) \in Q} {{B_N}(i, j) = 0} $$ (5)

    为获取BN,需要对可见光图像低频子带使用拉普拉斯算子进行卷积运算,以完成作为其特征的边缘检测。边缘检测是提取图像特征的可行方法,并已被广泛应用到众多领域[13]。拉普拉斯算子是一个二阶微分算子,相比Sobel和Prewitt等常用的边缘检测算子,拉普拉斯算子无方向性,这一特性使其能对各种方向的边缘都有相同的增强作用,但其不具备平滑功能,对噪声响应敏感,而图像的低频部分相当于已对图像进行过低频滤波,适合采用拉普拉斯边缘检测来提取可见光图像低频部分的特征。

    式(6)为二维拉普拉斯变换的定义[14]

    $$\begin{array}{*{20}{l}} {\nabla ^2}f(i, j) = \frac{{{\partial ^2}f(i, j)}}{{{\partial ^2}i}} + \frac{{{\partial ^2}f(i, j)}}{{{\partial ^2}j}} \approx \\ \frac{{\partial (f(i + 1, j) - f(i, j))}}{{\partial i}} + \frac{{\partial (f(i, j + 1) - f(i, j))}}{{\partial j}} \\ \end{array} $$ (6)

    离散式可表示为:

    $$\begin{array}{*{20}{l}} {\nabla ^2}f(i, j) \approx f(i + 1, j) + f(i - 1, j) \\ + f(i, j + 1) + f(i, j - 1) - 4f(i, j) \\ \end{array} $$ (7)

    根据离散表达式,可以得到拉普拉斯卷积核的结构:

    $${\boldsymbol{L}} = \left[ {\begin{array}{*{20}{l}} 0&1&0 \\ 1&{ - 4}&1 \\ 0&1&0 \end{array}} \right]$$ (8)

    或:

    $${\boldsymbol{L}} = \left[ {\begin{array}{*{20}{c}} 0&{ - 1}&0 \\ { - 1}&4&{ - 1} \\ 0&{ - 1}&0 \end{array}} \right]$$ (9)

    本文选用式(9)拉普拉斯卷积核,通过与可见光低频系数卷积,得到的可见光低频特征系数BN不仅能反映出可见光低频部分的纹理变化程度,同时能在一定程度上体现出其明暗分布信息。

    得到的BN并不能直接用于低频融合运算中,还需经过中心化和归一化,再按照融合规则进行低频融合。中心化和归一化分别如下所示:

    $$Y\left( p \right) = \frac{{X\left( p \right) - {X_{\min }}}}{{{X_{\max }} - {X_{\min }}}}$$ (10)
    $$Y\left( p \right) = \frac{1}{A}\sum\limits_{p \in X} {X\left( p \right)} $$ (11)

    因低频融合部分是以保留热辐射整体信息为前提,故不可避免地会导致融合后的图像在局部轮廓和边缘上的对比度有所下降,为此需要一种带细节增强的高频融合以进行图像质量损失补偿。对此,本文提出一种基于点锐度[15]与细节增强的高频融合规则,其中点锐度的数值大小能反映出邻域灰度相对于中心点灰度的变化程度,其值越大,则表明局部变化越剧烈,图像也越清晰,可作为融合度量。算法表达式如下:

    $$F_K^L(i, j) = G(A_K^L, B_K^L, i, j)$$ (12)

    式中:FKL为融合后NSCT变换第K层的L方向上的高频子带;AKLBKL为同层同方向的红外与可见光高频方向子带;ij为子带系数矩阵中的坐标,G为本文的高频融合算法。算法首先需要对AKLBKL计算点锐度:

    $$E\left( {i, j} \right) = \frac{{\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {\sum\limits_{a = 1}^8 {\left| {{\rm{d}}f - {\rm{d}}x} \right|} } } }}{{m \times n}}$$ (13)

    式中:mn为子带系数矩阵中局部范围的长和宽;df为像素灰度变化幅值;dx为单位像素距离增量,可以看出,求取某点的点锐度即是在以该点为中心的邻域范围内,对邻域点与中心点作差,对差值取绝对值后进行加权均值运算,本文使用各点到中心点的距离作为权值高低依据,即距离中心点越近,权值越大。根据计算出的点锐度,采取以下高频方向子带融合规则:

    $$T(E_{A, K}^L, E_{B, K}^L, \beta ) = \left\{ {\begin{array}{*{20}{c}} {\beta \cdot A_K^L(i, j), E_{A, K}^L(i, j) \geqslant E_{B, K}^L(i, j)} \\ {\beta \cdot A_K^L(i, j), E_{A, K}^L(i, j) < E_{B, K}^L(i, j)} \end{array}} \right.$$ (14)

    式中:β为融合增益因子,其增益比重参照红外和可见光高频方向子带在局部细节变化程度的相似程度来定值,其计算方式为:

    $$\beta = \left\{ {\begin{array}{*{20}{c}} {\frac{{E_{A, K}^L(i, j) + E_{B, K}^L(i, j)}}{{E_{A, K}^L(i, j)}}, E_{A, K}^L(i, j) \geqslant E_{B, K}^L(i, j)} \\ {\frac{{E_{A, K}^L(i, j) + E_{B, K}^L(i, j)}}{{E_{B, K}^L(i, j)}}, E_{A, K}^L(i, j) < E_{B, K}^L(i, j)} \end{array}} \right.$$ (15)

    可以看出,当红外高频子带与可见光高频子带的点锐度相似时,会有较大的融合增益,即对融合后图像的主要轮廓进行增强,对细节纹理进行适量补足,以增强视觉效果,确保融合后的图像质量。

    为验证所提出的融合算法的效果,本文将对融合后的图像质量和对红外图像信息的保留程度两方面进行算法对比实验,对实验结果的分析评价则从主观和客观两方面进行评价,并在对比实验后对红外源图像和融合图像进行伪彩色实验,以验证算法的实际可行性。

    对比实验数据均取自TNO数据集,选择小波变换(discrete wavelet transform,DWT)、非下采样轮廓波变换(NSCT)、拉普拉斯金字塔变换(laplacian pyramid,LP)、非下采样轮廓波变换同脉冲耦合神经网络结合(non-subsampled contourlet transform-pulse coupled neural network,NSCT-PCNN)4种图像融合算法进行对比实验,伪彩色实验数据使用取自实验室的数据集,以上实验均在MATLAB R2015b中进行,操作系统为Windows10,CPU为Intel Core i5-7200U,内存8GB。

    通过直观的视觉感受对图像融合的质量优劣进行评判,是图像评价中一种重要的参考,图像作为视觉信息,其好坏最终将反馈给人的视觉,这种直观判断也是图像分析的重要方法之一。图 3456是各种不同算法的融合结果。

    图  3  Kaptein_1123的融合结果
    Figure  3.  Fusion results of Kaptein_1123
    图  4  Kamtein_1654的融合结果
    Figure  4.  Fusion results of Kamtein_1654
    图  5  Meting003的融合结果
    Figure  5.  Fusion results of Meting003
    图  6  Maninhuis的融合结果
    Figure  6.  Fusion results of Maninhuis

    可以看出,几种融合方法都在不同程度上融合了可见光细节,整体上看,除本文的方法外,其它方法视觉上给人的映像更加偏向于可见光图像,从细节上看,DWT和LP的可见光细节部分融合得较多,但高热源对象的热辐射整体强度明显降低,NSCT和NSCT-PCNN的高热源对象热辐射信息变化不大,但对偏向于背景的低热源部分的热辐射进行了大幅改变,而从本文提出算法得到的图像可以明显看出,其局部和整体热辐射强度与红外图像的热辐射强度高度一致,相较于红外图像的细节不足,所提方法融合得到的图像很好地将可见光图像的纹理细节与结构同红外图像融合,并具有可见光图像中的立体感和层次感,很大程度上改善了视觉效果,同时基本保持了红外图像所具有的热辐射强度和分布,而其它几种算法对热辐射信息的保留明显不足,体现出本算法的优越性。

    为客观评估各算法的性能,本文选用平均梯度(average gradient,AG)、信息熵(entropy,EN)、空间频率(spatial frequency,SF)对各算法的图像融合质量进行考量,用结构相似性(structual similarity,SSIM)、互信息(mutual information,MI)、视觉信息保真度(visual information fidelity,VIF)考量融合后图像与源红外图像的近似程度,总计6项评价指标对融合效果进行客观评价。其中,AG可反映图像细节和纹理的变化程度,EN表明图像中信息量的大小,SF能体现图像在频率上的信息丰富的程度,SSIM是对处理后的图像相较处理前图像的失真程度和损失进行评估,MI可衡量两变量间的依赖性,用来度量融合图像与源红外图像在灰度分布上的相似程度,VIF是基于人类视觉失真模型的一种判据。以上6种指标在数值上越大,则图像的融合质量越好。表 1表 2分别对应图 3图 4的评价指标数值,表 3为从TNO(The TNO Image Fusion Dataset)中抽取10组红外和可见光源图像进行融合后得到的指标算数平均值。

    表  1  图 3各算法评价指标
    Table  1.  Fig. 3 Evaluation indexes of each algorithm
    Method AG EN SF SSIM MI VIF
    DWT 4.9666 6.6713 9.0816 0.7567 19.8462 0.5406
    LP 5.2522 6.8009 9.8522 0.7454 16.4003 0.5501
    NSCT 4.9564 7.3060 9.2742 0.6267 22.9055 0.5282
    NSCT-PCNN 4.6766 7.2198 8.8717 0.6945 2.2669 0.7031
    Proposed method 6.4685 7.0244 11.6793 0.8661 77.5039 0.7098
    下载: 导出CSV 
    | 显示表格
    表  2  图 4各算法评价指标
    Table  2.  Fig. 4 Evaluation indexes of each algorithm
    Method AG EN SF SSIM MI VIF
    DWT 5.8641 6.4416 11.1577 0.5967 7.4241 0.2729
    LP 6.2391 6.6517 12.0277 0.5715 7.7505 0.3038
    NSCT 6.0105 7.2517 11.6053 0.4455 10.4365 0.2970
    NSCT-PCNN 5.3421 7.3359 10.6143 0.5201 7.1469 0.4708
    Proposed method 7.3643 6.6584 13.7557 0.6811 22.8122 0.3906
    下载: 导出CSV 
    | 显示表格
    表  3  平均评价指标
    Table  3.  Average evaluation indexes
    Method AG EN SF SSIM MI VIF
    DWT 6.1136 7.0445 11.9406 0.6936 9.1349 0.2918
    LP 6.4499 7.3049 12.6930 0.6892 8.9399 0.3481
    NSCT 6.1955 7.7048 12.1721 0.5986 10.3829 0.3176
    NSCT-PCNN 5.5698 7.8429 11.3441 0.7352 8.5166 0.5246
    Proposed method 7.6364 7.3516 14.6092 0.7520 24.9254 0.4028
    下载: 导出CSV 
    | 显示表格

    从评价指标数据中可以看出,本文算法在AG、SF上占优,表明得到的融合图像在细节上的清晰度和纹理的丰富度上优于其它算法;SSIM和MI则反映出本文算法对红外图像热辐射信息的保留程度大于其它对比算法。虽然在EN上不如NSCT和NSCT-PCNN,但它们是以破坏红外热辐射整体结构信息为代价得到的,而NSCT-PCNN在图 4指标和平均指标中的VIF上高于本文算法,但由于VIF对图像的结构信息没有反映,单凭此项无法说明NSCT-PCNN对红外热辐射保留程度高于本文。因此,综合各评价指标来看,本文所提出的融合算法是更加有效的。

    使用实验室的红外热像仪进行红外图像采集,成像温宽会根据场景自动调节。由图 7图 8可见,红外图像与融合图像均能在视觉上反映出热辐射分布信息,相较于红外图像,融合图像融合了可见光细节信息,在保留热辐射分布信息的基础上,带来了更好的视觉体验,证明了本文算法的可行性。

    图  7  伪彩色效果图A
    Figure  7.  Pseudo-color rendering A
    图  8  伪彩色效果图B
    Figure  8.  Pseudo-color rendering B

    对于现有融合算法无法很好地保留红外图像热辐射这一问题,本文提出了一种基于热辐射保留的红外与可见光图像融合算法,使用NSCT将图像分解为高频部分和低频部分,并将拉普拉斯算子和点锐度分别应用到低频和高频融合中,且在高频融合过程中作适当增强予以补偿视觉损失,最后通过逆NSCT得到融合图像。融合后的图像不仅很好地保留了红外热辐射信息,还具有清晰的细节轮廓,相较LP算法在AG、SF上分别提高了18.32%和15.10%,确保了融合图像的质量,且在伪彩色变换后具有良好的视觉体验,验证了本文算法的可行性,为拓宽红外可见光图像融合技术的应用范围提供了依据。

  • 图  1   NSCT变换示意图

    Figure  1.   NSCT transformation diagram

    图  2   整体融合框架

    Figure  2.   Integrated framework

    图  3   Kaptein_1123的融合结果

    Figure  3.   Fusion results of Kaptein_1123

    图  4   Kamtein_1654的融合结果

    Figure  4.   Fusion results of Kamtein_1654

    图  5   Meting003的融合结果

    Figure  5.   Fusion results of Meting003

    图  6   Maninhuis的融合结果

    Figure  6.   Fusion results of Maninhuis

    图  7   伪彩色效果图A

    Figure  7.   Pseudo-color rendering A

    图  8   伪彩色效果图B

    Figure  8.   Pseudo-color rendering B

    表  1   图 3各算法评价指标

    Table  1   Fig. 3 Evaluation indexes of each algorithm

    Method AG EN SF SSIM MI VIF
    DWT 4.9666 6.6713 9.0816 0.7567 19.8462 0.5406
    LP 5.2522 6.8009 9.8522 0.7454 16.4003 0.5501
    NSCT 4.9564 7.3060 9.2742 0.6267 22.9055 0.5282
    NSCT-PCNN 4.6766 7.2198 8.8717 0.6945 2.2669 0.7031
    Proposed method 6.4685 7.0244 11.6793 0.8661 77.5039 0.7098
    下载: 导出CSV

    表  2   图 4各算法评价指标

    Table  2   Fig. 4 Evaluation indexes of each algorithm

    Method AG EN SF SSIM MI VIF
    DWT 5.8641 6.4416 11.1577 0.5967 7.4241 0.2729
    LP 6.2391 6.6517 12.0277 0.5715 7.7505 0.3038
    NSCT 6.0105 7.2517 11.6053 0.4455 10.4365 0.2970
    NSCT-PCNN 5.3421 7.3359 10.6143 0.5201 7.1469 0.4708
    Proposed method 7.3643 6.6584 13.7557 0.6811 22.8122 0.3906
    下载: 导出CSV

    表  3   平均评价指标

    Table  3   Average evaluation indexes

    Method AG EN SF SSIM MI VIF
    DWT 6.1136 7.0445 11.9406 0.6936 9.1349 0.2918
    LP 6.4499 7.3049 12.6930 0.6892 8.9399 0.3481
    NSCT 6.1955 7.7048 12.1721 0.5986 10.3829 0.3176
    NSCT-PCNN 5.5698 7.8429 11.3441 0.7352 8.5166 0.5246
    Proposed method 7.6364 7.3516 14.6092 0.7520 24.9254 0.4028
    下载: 导出CSV
  • [1] 谢春宇, 徐建, 李新德, 等. 基于深度学习的红外与可见光图像融合方法[J]. 指挥信息系统与技术, 2020, 11(2): 15-20, 38. https://www.cnki.com.cn/Article/CJFDTOTAL-ZHXT202002003.htm

    XIE Chunyu, XU Jian, LI Xinde, et al. Infrared and visible image fusion method based on deep learning[J]. Command Information System and Technology, 2020, 11(2): 15-20, 38. https://www.cnki.com.cn/Article/CJFDTOTAL-ZHXT202002003.htm

    [2]

    Rajiv S, Ashish K. Multiscale Medical image fusion in wavelet domain[J]. The Scientific World Journal, 2013, 2013: 521034. http://www.scienceopen.com/document_file/6e3eb747-a10e-42b1-8a95-0a0060e9b4b5/PubMedCentral/6e3eb747-a10e-42b1-8a95-0a0060e9b4b5.pdf

    [3]

    Padma Ganasala, Achanta Durga Prasad. Medical image fusion based on laws of texture energy measures in stationary wavelet transform domain[J]. International Journal of Imaging Systems and Technology, 2020, 30(3): 544-557. DOI: 10.1002/ima.22393

    [4]

    Do Minh N, Vetterli Martin. The contourlet transform: an efficient directional multiresolution image representation[J]. IEEE Transactions on Image Processing, 2005, 14(12): 1-16. DOI: 10.1109/TIP.2005.861050

    [5]

    Mertens T, Kaut Z J, Van Reeth F. Exposure fusion: a simple and practical alternative to high dynamic range photography[J]. Computer Graphics Forum, 2009, 28(1): 161-171. DOI: 10.1111/j.1467-8659.2008.01171.x

    [6]

    Da Cunha A L, Zhou J, Do M N. The nonsubsampled contourlet transform: theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15: 3089-3101. DOI: 10.1109/TIP.2006.877507

    [7]

    XING Xiaoxue, LIU Cheng, LUO Cong, et al. Infrared and visible image fusion based on nonlinear enhancement and NSST decomposition[J]. EURASIP Journal on Wireless Communications and Networking, 2020, 2020(1): 694-700. DOI: 10.1186/s13638-020-01774-6

    [8]

    WANG Z, LI X, DUAN H, et al. Multifocus image fusion using convolutional neural networks in the discrete wavelet transform domain[J]. Multimedia Tools and Applications, 2019, 78(24): 34483-34512. DOI: 10.1007/s11042-019-08070-6

    [9] 杨艳春, 王艳, 党建武, 等. 基于RGF和改进自适应Unit-Linking PCNN的红外与可见光图像融合[J]. 光电子·激光, 2020, 31(4): 401-410. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ202004010.htm

    YANG Yanchun, WANG Yan, DANG Jianwu, et al. Infrared and visible image fusion based on RGF and improved adaptive Unit-Linking PCNN[J]. Journal of Optoelectronics·Laser, 2020, 31(4): 401-410. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ202004010.htm

    [10] 林玉池, 周欣, 宋乐, 等. 基于NSCT变换的红外与可见光图像融合技术研究[J]. 传感器与微系统, 2008, 27(12): 45-47. DOI: 10.3969/j.issn.1000-9787.2008.12.015

    LIN Yuchi, ZHOU Xin, SONG Le, et al. Infrared and visible image fusion technology based on non subsampled contourlet transform[J]. Transducer and Microsystem Technologies, 2008, 27(12): 45-47. DOI: 10.3969/j.issn.1000-9787.2008.12.015

    [11] 程永翔, 刘坤, 贺钰博. 基于卷积神经网络与视觉显著性的图像融合[J]. 计算机应用与软件, 2020, 37(3): 225-230. DOI: 10.3969/j.issn.1000-386x.2020.03.038

    CHENG Yongxiang, LIU Kun, HE Yubo. Image fusion with convolutional neural network and visual saliency[J]. Computer Applications and Software, 2020, 37(3): 225-230. DOI: 10.3969/j.issn.1000-386x.2020.03.038

    [12] 巩稼民, 刘爱萍, 马豆豆, 等. 结合邻域特征与IDCSCM的红外与可见光图像融合[J]. 激光与红外, 2020, 50(7): 889-896. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW202007020.htm

    GONG Jiamin, LIU Aiping, MA Doudou, et al. Infrared and visible image fusion combining neighborhood features with IDCSCM[J]. Laser & Infrared, 2020, 50(7): 889-896. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW202007020.htm

    [13] 孙英慧, 蒲东兵. 基于拉普拉斯算子的边缘检测研究[J]. 长春师范学院学报: 人文社会科学版, 2009, 28(12): 4-6. https://www.cnki.com.cn/Article/CJFDTOTAL-CCSS200912002.htm

    SUN Yinghui, PU Dongbing. Edge Detection Research on Laplace Operator[J]. Journal of Changchun Normal University: Humanities and Social Sciences Edition, 2009, 28(12): 4-6. https://www.cnki.com.cn/Article/CJFDTOTAL-CCSS200912002.htm

    [14] 彭土有, 吴洁, 彭俊. 拉普拉斯边缘检测算法的改进及其在探地雷达中的应用[J]. 现代雷达, 2020, 42(8): 41-45. https://www.cnki.com.cn/Article/CJFDTOTAL-XDLD202008008.htm

    PENG Tuyou, WU Jie, PENG Jun. Improvement of Laplacian edge detection algorithm and its application on GPR[J]. Modern Radar, 2020, 42(8): 41-45. https://www.cnki.com.cn/Article/CJFDTOTAL-XDLD202008008.htm

    [15]

    Xydeas C S, Petrovi V. Objective image fusion performance measure[J]. Electronics Letters, 2000, 36(4): 308-309. DOI: 10.1049/el:20000267

  • 期刊类型引用(0)

    其他类型引用(2)

图(8)  /  表(3)
计量
  • 文章访问数:  197
  • HTML全文浏览量:  47
  • PDF下载量:  42
  • 被引次数: 2
出版历程
  • 收稿日期:  2020-10-20
  • 修回日期:  2020-12-24
  • 刊出日期:  2021-09-19

目录

/

返回文章
返回