基于改进谱残差显著性图的红外与可见光图像融合

李辰阳, 丁坤, 翁帅, 王立

李辰阳, 丁坤, 翁帅, 王立. 基于改进谱残差显著性图的红外与可见光图像融合[J]. 红外技术, 2020, 42(11): 1042-1047.
引用本文: 李辰阳, 丁坤, 翁帅, 王立. 基于改进谱残差显著性图的红外与可见光图像融合[J]. 红外技术, 2020, 42(11): 1042-1047.
LI Chenyang, DING Kun, WENG Shuai, WANG Li. Image Fusion of Infrared and Visible Images Based on Residual Significance[J]. Infrared Technology , 2020, 42(11): 1042-1047.
Citation: LI Chenyang, DING Kun, WENG Shuai, WANG Li. Image Fusion of Infrared and Visible Images Based on Residual Significance[J]. Infrared Technology , 2020, 42(11): 1042-1047.

基于改进谱残差显著性图的红外与可见光图像融合

基金项目: 

国家自然基金项目 51777059

江苏高校“青蓝工程” 

六大人才高峰工程 GDZB-006

详细信息
    作者简介:

    李辰阳(1995-),男,硕士研究生,主要从事图像处理方面的研究。E-mail:576419467@qq.com

  • 中图分类号: TP751.1

Image Fusion of Infrared and Visible Images Based on Residual Significance

  • 摘要: 为了将可见光图像与红外图像中的细节信息更多的呈现在融合图像中,突出目标特征并获得更好的图像视觉效果,本文提出一种基于改进谱残差显著性图的红外与可见光图像融合方法。首先用改进的谱残差显著性检测算法提取红外图像的显著性图并获得融合图像的显著性系数,然后对源图像进行双树复小波分解,并根据特定的融合规则分别对图像的低频部分以及高频部分进行融合,最后采用双树复小波逆变换重构获得最终的融合图像。实验表明,本文融合方法相较于传统融合方法融合质量更高并且在视觉效果上有显著提升。
    Abstract: To make the fusion image show more image details and to obtain a better image visual effect, a fusion method based on residual significance is proposed. First, the infrared image is analyzed using residual significance to obtain its significance coefficients. Then, the source images are decomposed using a dual-tree complex wavelet transform, and the low- and high-frequency components are fused according to different fusion rules. Finally, the fusion image is reconstructed using the inverse transformation of a dual-tree complex wavelet. Experimental results showed that the fusion method proposed in this paper produced higher quality images and better visual effects than those of the traditional fusion method.
  • 图像融合是指将多源信道对同一目标采集到的多幅图像综合成一幅高质量图像[1]。红外成像传感器根据测量目标本身与背景红外辐射的差异成像,抗干扰能力强,但分辨率较低,容易丢失细节信息;而可见光图像通常具有较高的对比度以及分辨率,能体现更多细节信息。因此红外图像与可见光图像有着良好的互补性,红外图像与可见光图像的融合也成为图像融合技术的研究热点,在军事、遥感等领域已取得了广泛的应用[2]

    基于多尺度分解的方法一直是图像融合技术研究的热点。余美晨等人在梯度金字塔变换[3]的基础上采取不同的层次融合策略生成融合图像。Ashish等人将多尺度局部形状算子与拉普拉斯金字塔变换[4]相结合提出了一种新型的图像融合方法。但常用的金字塔变换缺乏方向性且数据冗余度高,融合后图像不够清晰,图像信息量较少。Gonzalo等人提出了基于小波变换[5]的图像融合算法,克服了数据冗余的问题,但缺乏方向选择性以及平移不变性。Seal等人将Curvelet变换[6]应用于多尺度图像融合,虽然能够分析任意角度的方向,但计算量太大,图像处理效率较低。双树复小波变换[7]在小波变换的基础上进行改进,保留小波变换优点的同时,具有多方向选择性以及近似平移不变性,其计算效率高、重构效果好,融合图像质量较高,因此本文使用双树复小波变换进行多尺度变换。

    图像融合规则也是影响融合图像质量的重要因素,传统基于平均(AVE)的融合规则往往会降低图像的对比度,融合图像的视觉效果较差[8]。针对这一问题,本文提出一种基于改进谱残差(Spectral Residual,SR)显著性图的融合算法,应用改进的谱残差显著性模型对红外图像进行显著性分析获得融合图像的显著性权重,并根据显著性权重设计低频部分的融合规则,高频部分则采用局部方差最大值融合规则。

    视觉显著性是指针对某一特定场景,人类的视觉系统会选择性地忽略不感兴趣的区域,并自动关注感兴趣区域[9]。而如何对图像中的显著性区域进行量化已经成为近年来计算机视觉领域的研究热点。

    从信息论的角度,图像信息H(Image)可以分成两部分:

    $$ H\left( {{\rm{Image}}} \right) = H\left( {{\rm{Innovation}}} \right) + H\left( {{\rm{Prior}}} \right) $$ (1)

    式中:H(Innovation)表示图像中显著的部分,而H(Prior)表示图像中的冗余信息。Spectral Residual算法[10]就是基于这种思想,分析处理输入图像的对数谱,去除图像中的冗余部分,得到输入图像的显著部分。

    首先对输入图像进行傅里叶变换,获取振幅谱A(f)以及相位谱P(f)作为先验信息:

    $$ A(f) = \mathcal{R}(\Im [I(x)]) $$ (2)
    $$ P(f) = \mathcal{S}(\Im [I(x)]) $$ (3)

    然后根据振幅谱A(f)求输入图像的残差谱,谱残差为图像Log谱与平均频谱的差值,计算公式如下:

    $$ L(f) = {\rm{log}}(A(f)) $$ (4)
    $$ V(f) = L(f)^*{h_n}(f) $$ (5)
    $${h_n}\left( f \right) = \frac{1}{{{n^2}}}\left( {\left[ {\begin{array}{*{20}{c}} 1&1& \cdots &1 \\ 1&1& \cdots &1 \\ \vdots & \vdots & \ddots & \vdots \\ 1&1& \cdots &1 \end{array}} \right]} \right)$$ (6)
    $$ R(f) = L(f) - V(f) $$ (7)

    式中:L(f)表示图像的Log谱;V(f)表示平均频谱;hn(f)表示局部n×n均值滤波器;R(f)表示输入图像的残差谱。

    最后根据残差谱R(f)与先验信息中的相位谱P(f)进行傅里叶逆变换,就能够得到输入图像的显著性谱S(f),计算公式如下:

    $$S\left( x \right) = g\left( x \right)*{\Im ^{ - 1}}{\left[ {\exp \left( {R\left( f \right) + P\left( f \right)} \right)} \right]^2}$$ (8)

    虽然Spectral Residual显著性检测算法运算效率高,但其只能在一定程度上给出显著性区域的位置,并不能得到视觉效果良好的显著性图,如图 1~图 2所示。

    图  1  场景1红外图像以及显著性图
    Figure  1.  Saliency map of infrared image(Scene 1)
    图  2  场景2红外图像以及显著性图
    Figure  2.  Saliency map of infrared image(Scene 2)

    为了得到视觉效果更好的显著性图,本文在SR显著性检测算法的基础上进行改进,引入输入图像中每个像素点的全局对比度,计算公式如下:

    $${\rm{contrast}}\left( {{I_k}} \right) = \sum\nolimits_{\forall {I_i} \in I} {\left\| {{I_k} - {I_i}} \right\|} $$ (9)

    式中:contrast(Ik)表示输入图像中像素点k的全局对比度;Ik表示像素点k的灰度值;Ii表示输入图像中任意像素点的灰度值;IkIi的取值都在[0, 255]范围内,||·||表示灰度距离度量。然后分别对残差谱S(x)与全局对比度contrast(Ik)进行归一化处理:

    $${S_{{\rm{map}}}}\left( x \right) = \frac{{S\left( {{x_i}} \right) - {S_{\min }}}}{{{S_{\max }} - {S_{\min }}}}$$ (10)
    $${C_{{\rm{map}}}}\left( x \right) = \frac{{{\rm{contrast}}\left( {{x_i}} \right) - {\rm{contras}}{{\rm{t}}_{\min }}}}{{{\rm{contras}}{{\rm{t}}_{\max }} - {\rm{contras}}{{\rm{t}}_{\min }}}}$$ (11)

    Smap(x)与Cmap(x)中,系数越大表示显著性越强,因此在对Smap(x)与Cmap(x)进行融合时,采用最大值选择规则,具体的融合规则如下:

    $$W\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {{S_{{\rm{map}}}}\left( x \right){S_{{\rm{map}}}}\left( x \right) > {C_{{\rm{map}}}}\left( x \right)} \\ {{C_{{\rm{map}}}}\left( x \right){S_{{\rm{map}}}}\left( x \right) \leqslant {C_{{\rm{map}}}}\left( x \right)} \end{array}} \right.$$ (12)

    改进前后的显著性图如图 3~图 4所示:

    图  3  场景1算法改进前后显著性图
    Figure  3.  Contrast of saliency map (Scene 1)
    图  4  场景2算法改进前后显著性图
    Figure  4.  Contrast of saliency map (Scene 2)

    经过改进后的显著性图不仅有效地保留了红外图像中显著性目标的边缘信息,显著性图的视觉效果也有了明显的提升。

    为了克服传统小波变换在方向选择性以及平移不变性上的局限,Kingsbury对传统小波变换进行了改进,提出双树复小波变换[7]:双树复小波变换对输入图像的行和列分别进行独立的离散小波变换(两个独立的离散小波变换也称为双树复小波变换中的树a和树b),最终形成一种双树结构。

    图 5所示,树a作用于输入图像的行,树b作用于输入图像的列,h0表示树a对应的低通滤波器,h1表示树a对应的高通滤波器,j0表示树b对应的低通滤波器,j1表示树b对应的高通滤波器,↓2表示降采样(隔点采样)。每一级分解能够得到两个低频子带A(j+1, 1)、A(j+1, 2),低频子带还可以继续分解从而得到不同尺度下的高、低频成分;每一级分解获得低频子带的同时,还能够得到6个不同方向上的高频子带D(j+1, n),(n=1, …, 6),高频子带的方向分别为±15°、±45°、±75°。

    图  5  双树复小波分解示意图
    Figure  5.  Sketch map of DTCWT

    相较于传统小波变换,双树复小波变换不仅保留了传统小波变换的优点,还具备方向选择性(6个方向:±15°、±45°、±75°)以及近似平移不变性,能有效提高输入图像分解以及重构的精度,提高图像融合的质量。

    本文图像融合算法主要分为低频部分融合以及高频部分融合两部分,具体的融合算法流程如图 6所示。

    图  6  融合算法流程图
    Figure  6.  Image fusion flow chart

    经过双树复小波变换后,源图像的能量主要集中在低频部分,为使融合后的图像具有高对比度以及良好的视觉效果,本文在上述工作的基础上利用红外图像的显著性图进行低频系数的融合,具体的融合规则如下:

    $$ {C_{\rm{F}}}(x) = W(x) \cdot {C_{{\rm{IR}}}}(x) + [1 - W(x)] \cdot {C_{\rm{VI}}}(x) $$ (13)

    式中:CF(x)表示融合图像的低频部分;CIR(x)表示红外图像低频部分;C表示可见光图像低频部分;W(x)为改进后的显著性系数。

    经过双树复小波变换得到的源图像的高频部分反映图像的边缘信息,会对融合图像的细节产生较大影响。局部方差是度量高频部分不同区域包含源图像信息量多少的常用方法[11],局部方差计算公式如下:

    $$D_{k, l}^I\left( {x, y} \right) = \frac{1}{{M \times N}}\sum\limits_{m = \frac{{1 - M}}{2}}^{\frac{{M + 1}}{2}} {\sum\limits_{n = \frac{{1 - N}}{2}}^{\frac{{N + 1}}{2}} {{{\left[ {C_{k, l}^I\left( {x + m, y + n} \right) - \overline {C_{k, l}^I\left( {x, y} \right)} } \right]}^2}} } $$ (14)
    $$\overline {C_{k, l}^I\left( {x, y} \right)} = \frac{1}{{M \times N}}\sum\limits_{m = \frac{{1 - M}}{2}}^{\frac{{M + 1}}{2}} {\sum\limits_{n = \frac{{1 - N}}{2}}^{\frac{{N + 1}}{2}} {C_{k, l}^I\left( {x + m, y + n} \right)} } $$ (15)

    式中:Dk, lI(x, y)表示图像I在第k层、方向l上像素点(x, y)处的局部方差值;$\overline {C_{k, l}^I\left( {x, y} \right)} $表示图像I在第k层、方向l上像素点(x, y)处的局部均值,M×N定义局部窗口大小,本文选取局部窗口大小为5×5。

    局部方差越大表明对应区域所包含的源图像的信息量越多,因此可以根据局部方差极大值规则进行图像高频部分的融合,具体的融合规则如下:

    $$C_{k, l}^{\rm{F}}\left( {x, y} \right) = \left\{ {\begin{array}{*{20}{c}} {C_{k, l}^{{\rm{IR}}}\left( {x, y} \right)D_{k, l}^{{\rm{IR}}}\left( {x, y} \right) \geqslant D_{k, l}^{{\rm{VI}}}\left( {x, y} \right)} \\ {C_{k, l}^{{\rm{VI}}}\left( {x, y} \right)D_{k, l}^{{\rm{IR}}}\left( {x, y} \right) < D_{k, l}^{{\rm{VI}}}\left( {x, y} \right)} \end{array}} \right.$$ (16)

    为了验证本文基于改进谱残差显著性图的红外与可见光图像融合算法的有效性,本文选取3组已配准的红外与可见光图像,并使用多种经典的融合算法对选取的图像进行融合,评估不同融合算法的融合效果。本文使用的对比融合方法包括:拉普拉斯金字塔变换(Laplacian Pyramid,LP)、离散小波变换(Discrete Wavelet Transform,DWT)、基于视觉显著性与对比度增强的图像融合(Guided-filtering Nonsubsample Contourlet Transform,GFNSCT)[12]以及本文提出的基于改进谱残差显著性图的红外与可见光图像融合算法,其中用于对比实验的拉普拉斯金字塔变换、离散小波变换,在低频部分直接进行算术平均,高频部分取绝对值最大系数。

    各种对比算法融合结果如图 7~图 9所示。

    图  7  场景1融合结果
    Figure  7.  Image fusion results(Scene 1)
    图  8  场景2融合结果
    Figure  8.  Image fusion results(Scene 2)
    图  9  场景3融合结果
    Figure  9.  Image fusion results(Scene 3)

    从主观上评价,本文提出的融合算法呈现了更多的图像细节,在图 7中车辆以及商铺轮廓清晰,图 8图 9中树枝处的纹理细节也清晰可见。与此同时本文提出的融合算法在对比度方面也有着明显的提高,并且在融合图像的视觉效果方面明显优于传统的融合算法,这点在图 7中体现得最为明显。

    在本文中采用标准差(Standard Deviation,SD)、信息熵(Information Entropy,IE)、空间频率(Spatial Frequency,SF)、互信息(Mutual Information,MI)[13]以及Qc[14]5个客观评价指标对融合结果进行量化评价。

    $${\rm{SD}} = \sqrt {\frac{1}{N}\sum\limits_{i = 1}^N {{{\left( {{x_i} - \mu } \right)}^2}} } $$ (17)

    式中:μ表示图像灰度的平均值,SD反映融合图像的对比度,标准差越大融合图像对比越明显。

    $${\rm{RF}} = \sqrt {\frac{1}{{mn}}\sum\limits_{i = 1}^{M - 1} {\sum\limits_{j = 1}^{N - 1} {{{\left[ {F\left( {i, j} \right) - F\left( {i, j + 1} \right)} \right]}^2}} } } $$ (18)
    $${\rm{CF}} = \sqrt {\frac{1}{{mn}}\sum\limits_{i = 1}^{M - 1} {\sum\limits_{j = 1}^{N - 1} {{{\left[ {F\left( {i, j} \right) - F\left( {i + 1, j} \right)} \right]}^2}} } } $$ (19)
    $${\rm{SF}} = \sqrt {{\rm{R}}{{\rm{F}}^2} + {\rm{C}}{{\rm{F}}^2}} $$ (20)

    式中:RF与CF分别为图像的行频率与列频率;空间频率体现融合图像频谱的丰富度;空间频率越大融合图像越清晰。

    $${\rm{MI}} = \sum\limits_{i = 1}^L {\sum\limits_{j = 1}^L {{h_{{\rm{R, F}}}}\left( {i, j} \right) \cdot {{\log }_2}\frac{{{h_{{\rm{R, F}}}}\left( {i, j} \right)}}{{{h_{\rm{R}}}\left( i \right) + {h_{\rm{F}}}\left( j \right)}}} } $$ (21)

    式中:hR, F(i, j)为理想图像R与融合图像F的归一化联合直方图分布;hR(i)与hF(j)分别为图像的归一化边缘直方图分布;L为灰度级数。互信息反映融合图像从源图像中获取信息的丰富程度,互信息越高,表明融合图像与源图像关联度高。

    $${\rm{IE}} = \sum\limits_{i = 0}^{255} {{p_i}{{\log }_2}{p_i}} $$ (22)

    式中:pi表示图像中灰度值为i的像素所占的比例。图像信息熵是一种特征的统计形式,能够反映图像平均信息量的多少。

    Qc是基于人眼视觉系统提出的融合图像评价标准,Qc值越大表明融合图像的视觉效果越好。

    本文所有运算均在同一台电脑上运行,配置1.8 GHz四核CPU,16 GB运行内存,所有实验都建立在Matlab 2014a平台上。

    客观评价指标如表 1所示。从表中可以看出,本文算法在信息熵、空间频率、互信息以及Qc等5方面明显优于传统算法,证明其在图像信息量、对比度以及人眼视觉效果等方面比传统融合算法有着显著提升,与上文主观评价所得到的结果一致。与GFNSCT融合算法相比,对于空间频率这一指标的差距并不明显,这是因为本文算法所选择的双树复小波变换方法虽然具有近似平移不变性,但仍需进行上、下采样,导致融合图像清晰度不高,最终体现于空间频率这一指标并不突出;但对其他4个指标而言,本文算法均有明显提升,其中Qc的提升最为明显,说明本文算法在融合图像视觉效果方面的提升尤为明显。

    表  1  融合图像客观评价结果
    Table  1.  The objective evaluation results of fused images
    Scene Fusion method IE SD SF Qc MI
    Scene 1 LP 5.2477 25.0859 6.4781 0.6714 2.6909
    DWT 5.9016 20.5764 8.4659 0.7026 3.0138
    GFNSCT 5.9431 25.5093 12.0113 0.7223 3.1173
    Ours 5.9672 36.6538 12.6746 0.8148 3.1984
    Scene 2 LP 7.2489 44.5980 10.5057 0.7089 2.1191
    DWT 7.0574 40.5774 12.7919 0.6914 2.2907
    GFNSCT 7.1928 42.3394 15.7901 0.7218 2.3410
    Ours 7.2985 46.4514 15.9041 0.7901 2.3667
    Scene 3 LP 6.5528 26.4718 12.2714 0.7551 3.0173
    DWT 6.4503 25.7847 14.1124 0.8081 3.4493
    GFNSCT 6.6167 32.1633 16.5527 0.8271 3.5117
    Ours 7.0221 37.5441 16.9096 0.8650 3.6869
    下载: 导出CSV 
    | 显示表格

    本文在改进谱残差显著性模型的基础上,提出了一种基于显著性图的红外与可见光图像融合方法。首先对红外图像进行显著性分析,提取显著性图,接着对源图像进行双数复小波变换,并根据显著性图设计低频部分的融合规则,最终得到质量更高的融合图像。实验结果表明,本文方法有效可行,且得到的融合图像在图像信息、图像对比度尤其是视觉效果这些方面有着显著提升。

  • 图  1   场景1红外图像以及显著性图

    Figure  1.   Saliency map of infrared image(Scene 1)

    图  2   场景2红外图像以及显著性图

    Figure  2.   Saliency map of infrared image(Scene 2)

    图  3   场景1算法改进前后显著性图

    Figure  3.   Contrast of saliency map (Scene 1)

    图  4   场景2算法改进前后显著性图

    Figure  4.   Contrast of saliency map (Scene 2)

    图  5   双树复小波分解示意图

    Figure  5.   Sketch map of DTCWT

    图  6   融合算法流程图

    Figure  6.   Image fusion flow chart

    图  7   场景1融合结果

    Figure  7.   Image fusion results(Scene 1)

    图  8   场景2融合结果

    Figure  8.   Image fusion results(Scene 2)

    图  9   场景3融合结果

    Figure  9.   Image fusion results(Scene 3)

    表  1   融合图像客观评价结果

    Table  1   The objective evaluation results of fused images

    Scene Fusion method IE SD SF Qc MI
    Scene 1 LP 5.2477 25.0859 6.4781 0.6714 2.6909
    DWT 5.9016 20.5764 8.4659 0.7026 3.0138
    GFNSCT 5.9431 25.5093 12.0113 0.7223 3.1173
    Ours 5.9672 36.6538 12.6746 0.8148 3.1984
    Scene 2 LP 7.2489 44.5980 10.5057 0.7089 2.1191
    DWT 7.0574 40.5774 12.7919 0.6914 2.2907
    GFNSCT 7.1928 42.3394 15.7901 0.7218 2.3410
    Ours 7.2985 46.4514 15.9041 0.7901 2.3667
    Scene 3 LP 6.5528 26.4718 12.2714 0.7551 3.0173
    DWT 6.4503 25.7847 14.1124 0.8081 3.4493
    GFNSCT 6.6167 32.1633 16.5527 0.8271 3.5117
    Ours 7.0221 37.5441 16.9096 0.8650 3.6869
    下载: 导出CSV
  • [1] 敬忠良, 肖刚, 李振华.图像融合——理论与应用[M].北京:高等教育出版社, 2007.

    JING Zhongliang, XIAO Gang, LI Zhenhua. Image FusionTheory and Application[M]. Beijing: Higher Education Press, 2007.

    [2] 刘信乐.热红外图像与可见光图像融合方法研究[D].成都: 电子科技大学, 2013.

    LIU Xinle. Research on Fusion Method of infrared image and visible image[D]. Chengdu: University of Electronic Science and Technology of China, 2013.

    [3] 余美晨, 孙玉秋, 王超.基于拉普拉斯金字塔的图像融合算法研究[J].长江大学学报:自然科学版, 2016, 13(34): 770-776. http://www.cnki.com.cn/Article/CJFDTOTAL-CJDL201634005.htm

    YU Meichen, SUN Yuqiu, WANG Chao. Image fusion algorithm based on Laplacian pyramid[J]. Journal of Yangtze University: Natural Science, 2016, 13(34): 770-776. http://www.cnki.com.cn/Article/CJFDTOTAL-CJDL201634005.htm

    [4]

    Ashish V Vanmali, Vikram M Gadre. Visible and NIR image fusion using weight-map-guided Laplacian–Gaussian pyramid for improving scene visibility[J]. Springer Nature, 2017(6): 1063-1082.

    [5]

    Gonzalo P, Jesus M A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004, 37(9): 1855-1872.

    [6]

    Seal Ayan, Bhattacharjee Debotosh, NasipuriMita. A trous wavelet transform based hybrid image fusion for face recognition using region classifiers[J]. Expert Systems, 2018(12): 2185-2188.

    [7] 王少杰, 潘晋孝, 陈平.基于双树复小波变换的图像融合[J].核电子学与探测技术, 2015, 35(7): 726-728.

    WANG Shaojie, PAN Jinxiao, CHEN Ping. Image fusion based on DT-CWT[J]. Nuclear Electronics & Detection Technology, 2015, 35(7): 726-728.

    [8] 林子慧, 魏宇星, 张建林, 等.基于显著性图的红外与可见光图像融合[J].红外技术, 2019, 41(7): 640-645. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201810021

    LIN Zihui, WEI Yuxing, ZHANG Jianglin, et al. Image fusion of infrared image and visible image based on saliency map[J]. Infrared Technology, 2019, 41(7): 640-645. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201810021

    [9]

    TIAN Huawei, FANG Yuming. Salient region detection by fusing bottom-up and top-down features extracted from single image[J]. IEEE Transaction on Image Processing, 2014, 23(10): 4389-4397. DOI: 10.1109/TIP.2014.2350914

    [10]

    HOU X, ZHANG L. Salient detection: A spectral residual approach[C]//IEEE Conference on Computer Vison and Pattern Recognition, 2007: 18-23.

    [11] 郭玲, 杨斌.基于视觉显著性的红外与可见光图像融合[J].计算机科学, 2015, 42(6): 211-214. http://www.cnki.com.cn/Article/CJFDTotal-GXYQ201604005.htm

    GUO Ling, YANG Bin. Image fusion of infrared image and visible image based on visual saliency[J]. Computer Science, 2015, 42(6): 211-214. http://www.cnki.com.cn/Article/CJFDTotal-GXYQ201604005.htm

    [12] 张承鸿, 李范鸣, 吴滢跃.基于视觉显著性与对比度增强的红外图像融合[J].红外技术, 2017, 39(5): 421-426. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201612035

    ZHANG Chenghong, LI Fanming, WU Yingyue. Image fusion of infrared image and visible image based onvisual saliency and contrast enhancement[J]. Infrared Technology, 2017, 39(5): 421-426. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201612035

    [13]

    ZHENG Y F, Essock E. A new metric based on extended spatial frequency and its application to DWT based fusion algorithms[J]. Information Fusion, 2007, 8(2): 177-192. DOI: 10.1016/j.inffus.2005.04.003

    [14]

    QU G, ZHANG D, YAN P. Information measure for performance of image fusion[J]. Electron Lett, 2002, 38(7): 313-315. DOI: 10.1049/el:20020212

  • 期刊类型引用(8)

    1. 杨帆,王志社,孙婧,余朝发. 红外与可见光图像交互自注意力融合方法. 光子学报. 2024(06): 221-232 . 百度学术
    2. 张宗包. 基于图像融合技术的变电站二次设备热故障自主定位研究. 机械与电子. 2023(03): 18-22 . 百度学术
    3. 王树泽,张志华,邓砚学. 基于机载高光谱遥感图像的城市绿地覆盖研究. 激光杂志. 2022(02): 77-81 . 百度学术
    4. 王君尧,王志社,武圆圆,陈彦林,邵文禹. 红外与可见光图像多特征自适应融合方法. 红外技术. 2022(06): 571-579 . 本站查看
    5. 陈海峰,庄金雷,朱标,李培华,杨潘,刘丙友,樊璇. 基于改进Canny算子的图像边缘融合方法. 新乡学院学报. 2022(12): 23-27 . 百度学术
    6. 管声启,胡璐萍,常江,倪奕棋,王琪璇,管宇灿,张理博. 基于视觉显著模型的织物起球等级评价. 西安工程大学学报. 2021(04): 20-27 . 百度学术
    7. 杨九章,刘炜剑,程阳. 基于对比度金字塔与双边滤波的非对称红外与可见光图像融合. 红外技术. 2021(09): 840-844 . 本站查看
    8. 杨雅芳. 一种基于小波去噪的遥感图像显著性区域检测算法. 吉林化工学院学报. 2021(09): 47-52 . 百度学术

    其他类型引用(8)

图(9)  /  表(1)
计量
  • 文章访问数:  285
  • HTML全文浏览量:  99
  • PDF下载量:  42
  • 被引次数: 16
出版历程
  • 收稿日期:  2019-12-14
  • 修回日期:  2020-09-06
  • 刊出日期:  2020-11-19

目录

/

返回文章
返回