基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法

李文, 叶坤涛, 舒蕾蕾, 李晟

李文, 叶坤涛, 舒蕾蕾, 李晟. 基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法[J]. 红外技术, 2022, 44(7): 693-701.
引用本文: 李文, 叶坤涛, 舒蕾蕾, 李晟. 基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法[J]. 红外技术, 2022, 44(7): 693-701.
LI Wen, YE Kuntao, SHU Leilei, LI Sheng. Infrared and Visible Image Fusion Algorithm Based on Gaussian Fuzzy Logic and Adaptive Dual-Channel Spiking Cortical Model[J]. Infrared Technology , 2022, 44(7): 693-701.
Citation: LI Wen, YE Kuntao, SHU Leilei, LI Sheng. Infrared and Visible Image Fusion Algorithm Based on Gaussian Fuzzy Logic and Adaptive Dual-Channel Spiking Cortical Model[J]. Infrared Technology , 2022, 44(7): 693-701.

基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法

基金项目: 

江西省教育厅科学技术研究项目 GJJ170526

详细信息
    作者简介:

    李文(1997-),男,硕士研究生,主要研究方向为图像融合。E-mail:13986775110@163.com

    通讯作者:

    叶坤涛(1972-),男,博士,副教授,主要研究方向为MEMS、信号处理。E-mail:mems_123@126.com

  • 中图分类号: TP391.41

Infrared and Visible Image Fusion Algorithm Based on Gaussian Fuzzy Logic and Adaptive Dual-Channel Spiking Cortical Model

  • 摘要: 为了克服当前的红外与可见光图像融合算法存在着目标不够突出、纹理细节丢失等现象,本文提出了一种基于高斯模糊逻辑和自适应双通道脉冲发放皮层模型(Adaptive Dual-Channel Spiking Cortical Model, ADCSCM)的红外与可见光图像融合算法。首先,使用非下采样剪切波变换(Non-Subsampled Sheartlet Transform, NSST)将源图像分解为低频和高频部分。其次,结合新拉普拉斯能量和(New Sum of Laplacian, NSL)与高斯模糊逻辑,设定双阈值来指导低频部分进行融合;同时,采用基于ADCSCM的融合规则来指导高频部分进行融合。最后,使用NSST逆变换进行重构来获取融合图像。实验结果表明,本文算法主观视觉效果最佳,并在互信息、信息熵和标准差3项指标上高于其他7种融合算法,能够有效突出红外目标、保留较多纹理细节,提高融合图像的质量。
    Abstract: To overcome the shortcomings of current infrared and visible image fusion algorithms, such as non-prominent targets and the loss of many textural details, a novel infrared and visible image fusion algorithm based on Gaussian fuzzy logic and the adaptive dual-channel spiking cortical model (ADCSCM) is proposed in this paper. First, the source infrared and visible images are decomposed into low- and high-frequency parts by non-subsampled shearlet transform (NSST). Then, these are combined with the new sum of the Laplacian and Gaussian fuzzy logic, and dual thresholds are set to guide the fusion of the low-frequency part; simultaneously, the fusion rule based on the ADCSCM is used to guide the fusion of the high-frequency part. Finally, the fused low- and high-frequency parts are reconstructed using inverse NSST to obtain the fused image. The experimental results show that the proposed algorithm has the best subjective visual effect and is better than the other seven fusion algorithms in terms of mutual information, information entropy, and standard deviation. Furthermore, the proposed algorithm can effectively highlight the infrared target, retain more textural details, and improve the quality of the fused image.
  • 红外图像的目标信息突出,但通常其对比度和空间分辨率低,且严重缺失细节;可见光图像通常对比度和空间分辨率较高,细节信息丰富,但易受外界环境的干扰[1]。通过红外与可见光图像融合技术,可以有效地综合红外与可见光图像各自的优势信息,形成一幅目标更突出、细节信息更丰富的融合图像[2]。当前,红外与可见光图像融合技术已被广泛应用在目标跟踪、红外探测、军事以及民用等领域[3]

    当前,基于多尺度变换的图像融合算法是图像融合算法中研究最为广泛的一类,即使用某种多尺度变换工具将源图像分解为低频和高频部分,然后分别对低频和高频部分进行融合[2]。相应地,多种多尺度变换工具已相继被研究学者们提出,如小波变换、曲波变换(Curvelet Transform, CVT)、非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)以及剪切波变换(Sheartlet Transform, ST)等[4]。NSST是被学者们近期提出的一种多尺度变换工具,它避免了ST的下采样操作,从而具备平移不变性,还消除了NSCT的较高计算复杂度,同时NSST具备较优的多分辨率性及各向异性等特点,可以较优地应用于红外与可见光图像融合领域当中[5-6]

    近些年来,多种基于多尺度变换的红外与可见光图像融合算法仍存在着目标不够突出、纹理细节丢失等现象。如王聪等[7]提出的一种基于脉冲发放皮层模型(Spiking Cortical Model, SCM)和复剪切波变换的融合算法,其融合图像纹理细节较丰富,但红外目标不够突出,同时红外目标周围还存在着伪影现象。邓立暖等[6]提出的一种基于NSST的融合算法,通过NSST分解源图像,然后利用显著图和改进的区域对比度分别来指导低频和高频部分进行融合,其融合图像红外目标较为突出,但存在着不属于源图像的结构信息,且有部分区域污染。Tan等[8]提出的一种基于多级高斯曲率滤波(Multi-Level Gaussian Curvature Filtering, MLGCF)图像分解的融合算法,其融合图像对比度适中,纹理细节较丰富,但存在着红外目标不够突出且偏暗的现象。冯贺等[9]提出的一种结合拉普拉斯分解和与亮度调节的融合算法,其融合图像整体偏暗、虽然红外目标较突出,但丢失了部分纹理细节。

    为了较好地克服上述图像融合算法存在的缺陷,本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。首先,通过NSST将红外与可见光图像分解为低频和高频部分;其次,本文结合NSL(New Sum of Laplacian)和高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合;同时,本文对SCM进行改进,由单通道改为双通道,外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整,形成ADCSCM来指导高频部分进行融合;最后,利用NSST逆变换对融合后的低频和高频部分进行重构,获取融合图像。

    由Guo等[10]提出的ST具备良好的局部性、方向敏感性等特点,NSST是ST的改进版本,在继承ST的优点外,还避免了ST的下采样操作,具备了ST没有的平移不变性,因此NSST能够克服图像边缘处的伪吉布斯现象。

    NSST的分解过程主要为多尺度分解与方向局部化两部分[11]。使用非下采样金字塔滤波器组(Non-Subsampled Pyramid, NSP)对源图像进行多级分解,进而实现多尺度分解。k级分解后将产生1个低频子带和k个高频子带,它们与源图像的尺寸一致;使用剪切滤波器(Shearlet Filter, SF)对某一尺度下的高频子带进行多级分解,形成多个不同方向上的高频子带,实现方向局部化。l级分解后将产生2l个高频方向子带,它们与源图像尺寸一致。通过上述的NSP和SF分解,能够保证NSST的各向异性和平移不变性。此外,NSST还具有良好的稀疏表示性能与低计算成本等特点,属于一种有效的多尺度变换工具。

    SCM由Zhan等[12]在2009年首次提出,它源于Eckhorn神经网络模型,属于一种改进的脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)模型。SCM除了具备PCNN的全局耦合性、同步脉冲性等特点外,还有参数少、计算效率高、结构简单的特点。当前,SCM在图像分割及图像融合等领域均具有明显的优势[13]

    由于SCM存在着对图像中暗部区域细节提取能力较弱的缺陷,本文在传统SCM基础上,提出了一种自适应双通道脉冲发放皮层模型,该模型能够有效地提高对图像中暗部区域细节的提取能力。此外,ADCSCM中同时输入两幅图像的外部输入激励,进而加快图像融合的速度。本文提出的ADCSCM中神经元结构如图 1所示。

    图  1  ADCSCM结构
    Figure  1.  The structure of ADCSCM

    ADCSCM相对应的数学表达式如下:

    $$ U_{i j}^{1}(n)=S_{i j}^{1} \cdot \beta_{i j}^{1} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{1} $$ (1)
    $$ U_{i j}^{2}(n)=S_{i j}^{2} \cdot \beta_{i j}^{2} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{2} $$ (2)
    $$ U_{i j}(n)=\max \left\{U_{i j}^{1}(n), U_{i j}^{2}(n)\right\} $$ (3)
    $$ E_{i j}(n)=g E_{i j}(n-1)+h Y_{i j}(n-1) $$ (4)
    $$ X_{i j}(n)=\frac{1}{1+\exp \left[-\left(U_{i j}(n)-E_{i j}(n)\right)\right]} $$ (5)
    $$ Y_{i j}(n)=\left\{\begin{array}{ll} 1 & X_{i j}(n)>0.5 \\ 0 & {\rm { otherwise }} \end{array}\right. $$ (6)

    式(1)~(6)中:(i, j)为神经元位置;n为迭代次数;上标1、2分别表示通道1、通道2;Sij为神经元的外部输入激励;Uij为神经元的内部活动项;Eij为动态阈值;Wijkl为神经元间的链接权重矩阵;βij为神经元的链接强度;(k, l)为神经元的周围连接;g为阈值衰减系数;h为阈值放大系数;Xij为神经元的幅度输出,采用sigmoid函数形式输出表示,能够突出幅度差异;Yij为神经元的脉冲输出,当Yij为1时,表示神经元成功点火;反之,当Yij为0时,表示神经元未成功点火。

    本文结合多尺度变换工具NSST、高斯模糊逻辑以及ADCSCM特性等,提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法,融合流程图由图 2所示,对应的融合具体步骤分为以下4步:

    图  2  本文算法融合流程图
    Figure  2.  Fusion flow chart of the proposed algorithm

    步骤1:使用NSST将已配准的红外图像A与可见光图像B分解为低频部分{DLA(i, j), DHA(i, j)}和高频部分{DLB(i, j), DHB(i, j)};

    步骤2:结合NSL与高斯模糊逻辑,并设定双阈值来指导低频部分DLA(i, j)、DLB(i, j)进行融合,获取融合后的低频部分DLF(i, j);

    步骤3:同时采用基于ADCSCM的融合规则来指导高频部分DHA(i, j)、DHB(i, j)进行融合,获取融合后的高频部分DHF(i, j);

    步骤4:最后,通过NSST逆变换对DLF(i, j)、DHF(i, j)进行重构,获取融合图像F。

    低频部分主要是源图像的基本信息,反映着图像的主要轮廓。传统的低频部分融合规则如取平均法、简单加权法等容易丢失源图像的细节,导致融合的效果一般。为了克服传统低频部分融合规则的缺陷,本文提出结合NSL与高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合。

    拉普拉斯能量和在表明图像的能量信息时,还能反映出图像的边缘特性[14]。但传统拉普拉斯能量和仅计算了像素点的垂直和水平方向的拉普拉斯算子,未考虑对角方向的拉普拉斯算子,从而丢失了部分图像细节。在此基础上,本文增加了主对角和副对角的拉普拉斯算子值,形成NSL[14]。NSL定义为:

    $$ \begin{array}{l} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i, j)=\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j)-D_{{\mathrm{L}}}^{I}(i+1, j)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i, j-1)-D_{{\mathrm{L}}}^{I}(i, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j-1)-D_{{\mathrm{L}}}^{I}(i+1, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j+1)-D_{{\mathrm{L}}}^{I}(i+1, j-1)\right| \end{array} $$ (7)
    $$ {\mathrm{NSL}}_{{\mathrm{L}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i+x, j+y) $$ (8)

    式(7)~(8)中:DLI(i, j)上标I可取A、B,表示红外图像或可见光图像低频部分;NLLI(i, j)为新拉普拉斯算子;MN为区域窗口测度,表示区域窗口大小为(2M+1)×(2N+1),本文取3×3,即M=N=1。

    则基于NSL的权重因子定义如下:

    $$ \left\{\begin{array}{l} \omega_{1}=\frac{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\alpha_{0} \cdot {\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)} \\ \omega_{2}=1-\omega_{1} \end{array}\right. $$ (9)

    式中:α0为权重调节参数,本文参考文献[15],相应取α0=3。ω1为红外权重因子,ω2为可见光权重因子。

    同时,红外图像的直方图呈现高斯分布,与高斯模糊逻辑的特性相似。侧面表明高斯模糊逻辑的隶属度可以较优地描述红外图像的目标和背景信息[16]。则红外低频部分的背景隶属度ωB和目标隶属度ωT由高斯函数确定,分别定义如下:

    $$ \left\{\begin{array}{l} \omega_{{\mathrm{B}}}(i, j)=\exp \left[\frac{\left(D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)-\mu\right)^{2}}{-2 \cdot\left(k_{0} \sigma\right)^{2}}\right] \\ \omega_{{\mathrm{T}}}(i, j)=1-\omega_{{\mathrm{B}}}(i, j) \end{array}\right. $$ (10)

    式中:μ为红外低频部分的均值;σ为红外低频部分的标准差;k0为自适应调节参数,取值范围一般为1~3,本文取k0=2。

    将红外低频部分的背景隶属度、目标隶属度与ω1ω2相结合,形成修正的红外权重因子λ1和可见光权重因子λ2用于融合低频部分,λ1λ2分别定义如下:

    $$ \left\{ {\begin{array}{*{20}{l}} {{\lambda _1}(i, j) = \frac{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j)}}{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j) + {\omega _{\rm{B}}}(i, j){\omega _{\rm{2}}}(i, j)}}} \\ {{\lambda _2}(i, j) = 1 - {\lambda _1}(i, j)} \end{array}} \right. $$ (11)

    其次,区域能量反映着图像中像素点的局部变化强度,可以较好地表现出红外与可见光图像各自的信息特征。图像低频部分区域能量RE定义为:

    $$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{I}}}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\boldsymbol{w}}_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{L}}}^{{\mathrm{I}}}(i+x, j+y)\right]^{2} \end{array} $$ (12)

    式中:w0为窗口掩膜矩阵,越靠近中心点表明其权值相对越大,本文取${\boldsymbol{w}}_{0}=\frac{1}{16}\left[\begin{array}{l} 1 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 1 \end{array}\right]$。

    基于上述的区域能量,设定双阈值T1T2与其结合,进而判断融合图像低频部分中的某像素点属于明显的红外图像或可见光图像特征信息。具体表述为:

    记${\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)=\frac{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)}$,若RELX(i, j)大于T1,表明该像素点属于较明显的红外信息,则其低频融合系数等价于红外图像低频系数;相应地,若RELX(i, j)小于T2,表明该像素点属于较明显的可见光信息,则其低频融合系数等价于可见光图像低频系数。其中,T1T2为不同的常数,且需保证T1>1>T2,在经过多次融合实验后,当T1T2分别取T1=12、T2=0.75时,本文融合算法具有较优的融合效果。

    因此,低频部分融合系数DLF(i, j)可以表示为:

    $$ D_{{\mathrm{L}}}^{{\mathrm{F}}}(i, j)=\left\{\begin{array}{l} D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)>T_{1} \\ D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)<T_{2} \\ \lambda_{1}(i, j) D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\lambda_{2}(i, j) D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \text { otherwise } \end{array}\right. $$ (13)

    高频部分主要是源图像的细节,反映着图像的突变特性。常见的融合规则如区域能量取大、绝对值取大规则等虽然简单高效,但忽略了图像像素间的相关性,容易导致融合图像纹理细节或边缘信息的丢失,造成图像扭曲[17]。SCM是PCNN模型的简化版本,具有全局耦合性、同步脉冲性和计算量小等优势,能够较好地突出图像的细节部分。为了保留源图像的细节,本文提出基于ADCSCM的融合规则来指导高频部分进行融合,其外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整。ADCSCM在继承SCM的优点外,还能够弥补SCM对图像暗部区域细节提取能力较弱的缺陷,反映出图像的突变特性、加快图像融合的速度。

    在ADCSCM中,记外部输入激励为Sijm,链接强度为βijm,其中上标m=1, 2,表示为通道1、通道2,其中通道1与红外图像A高频部分相对应,通道2与可见光图像B高频部分相对应。

    由ADCSCM的工作原理可知,外部输入激励Sijm的选取十分重要,直接影响着高频部分的融合结果。当前,常见外部输入激励选取方法是通过单个区域特征,如区域能量、改进空间频率等确定,但由此容易导致融合的图像缺乏细节和边缘等信息。因此,本文提出外部输入激励Sijm由区域能量和边缘测度指标共同选取,可以使融合图像保持着更多的细节和边缘信息。图像高频部分区域能量RE和边缘测度指标EM分别定义为:

    $$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{H}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} w_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{H}}}^{I}(i+x, j+y)\right]^{2} \end{array} $$ (14)

    式中:DHI(i, j)上标I可取A、B,表示红外图像或可见光图像高频部分。

    $$ \begin{array}{r} {\mathrm{EM}}^{I}(i, j)=\left({\boldsymbol{F}}_{1} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j)+\left({\boldsymbol{F}}_{2} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \\ +\left({\boldsymbol{F}}_{3} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \end{array} $$ (15)

    式中:*表示卷积;F1为垂直方向模板;F2为水平方向模板;F3为对角线方向模板。为了有效地计算边缘信息,将F1F2F3取为${\boldsymbol{F}}_{1}=\left[\begin{array}{ccc} -1 & -1 & -1 \\ 2 & 2 & 2 \\ -1 & -1 & -1 \end{array}\right]$,${\boldsymbol{F}}_{2}=\left[\begin{array}{lll} -1 & 2 & -1 \\ -1 & 2 & -1 \\ -1 & 2 & -1 \end{array}\right]$,${\boldsymbol{F}}_{3}=\left[\begin{array}{ccc} -1 & 0 & -1 \\ 0 & 4 & 0 \\ -1 & 0 & -1 \end{array}\right]$。

    通过上述边缘测度指标EM,能够在一定程度上反映出高频部分在垂直、水平和对角线方向的边缘信息[18]。联合边缘测度指标和区域能量作为ADCSCM的外部输入激励,能够反映出红外与可见光图像高频部分系数不同的特性。表示为:

    $$ S_{i j}^{m}={\rm{RE}}_{\mathrm{H}}^{I}(i, j) \cdot {\rm{EM}}_{\mathrm{H}}^{I}(i, j) $$ (16)

    图像中像素点与ADCSCM中神经元互相对应,图像的区域平均梯度可以敏锐地感知细节差异,反映着图像的纹理信息变化情况。ADCSCM中每个神经元的链接强度并不相同,通过区域平均梯度自适应调整链接强度,恰好对应着不同神经元的链接特性。为了更好地保留高频部分有效信息,本文增加主对角线和副对角线处方向的梯度计算[19],形成改进区域平均梯度IAG。IAG的数学表达式为:

    $$ {\rm{IAG}}^{I}(i, j)=\frac{1}{P \times Q} \sum\limits_{i=1}^{P} \sum\limits_{j=1}^{Q}\left[\left(G_{1}^{I}(i, j)+G_{2}^{I}(i, j)+\right.\right.\\\left.\left.G_{3}^{I}(i, j)+G_{4}^{I}(i, j)\right) / 4\right]^{1 / 2} $$ (17)
    $$ G_{1}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j)\right]^{2} $$ (18)
    $$ G_{2}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i, j+1)\right]^{2} $$ (19)
    $$ G_{3}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j+1)\right]^{2} $$ (20)
    $$ G_{4}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j-1)\right]^{2} $$ (21)

    式(17)~(21)中:P×Q表示区域大小,本文取为3×3,G1I(i, j)、G2I(i, j)、G3I(i, j)、G4I(i, j)分别为当前区域内的垂直、水平、主对角和副对角的梯度。

    同时,本文提出链接强度βijm由IAG自适应调整,但又不完全依赖于IAG,能够更好地表现出神经元之间的链接关系,反映出红外与可见光图像高频部分中不同像素点对应的神经元点火先后。链接强度βijm表示为:

    $$ \beta_{i j}^{m}=\beta_{0}+\frac{1}{1+\exp \left[-{\rm{IAG}}^{I}(i, j)\right]} $$ (22)

    式中:β0为初始链接强度,本文取β0=2.0。

    因此,本文提出的一种基于ADCSCM的融合规则具体可分为以下4步:

    步骤1:利用式(14)~(16)计算出红外与可见光图像高频部分各自的外部输入激励,同时利用式(17)~ (22)计算出红外与可见光图像高频部分各自的链接强度;

    步骤2:定义初始状态$U_{i j}^{\mathrm{A}}(0)=U_{i j}^{\mathrm{B}}(0)=U_{i j}(0)=0$,$E_{i j}(0)=X_{i j}(0)=Y_{i j}(0)=0$,同时设置ADCSCM的最大迭代次数为N0

    步骤3:通过式(1)~(6)进行N0次迭代,计算N0次迭代后的内部活动项$U_{i j}^{\mathrm{A}}\left(N_{0}\right)$、$U_{i j}^{\mathrm{B}}\left(N_{0}\right)$和Uij(N0);

    步骤4:通过ADCSCM获取的高频部分融合系数DHF(i, j)选取规则为:

    $$ D_{\mathrm{H}}^{\mathrm{F}}(i, j)=\left\{\begin{array}{ll} D_{\mathrm{H}}^{\mathrm{A}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{A}}\left(N_{0}\right) \\ D_{\mathrm{H}}^{\mathrm{B}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{B}}\left(N_{0}\right) \end{array}\right. $$ (23)

    为了检验本文算法的融合性能,选取CVT[20]、NSCT[21]、GTF[22]、NSCT-PCNN[23]、NSST- PAPCNN[24]、MS-WLS[3]、MLGCF[8]共7种融合算法与本文算法进行融合对比实验。实验中,选取4组经典的红外与可见光图像进行融合,分别记为“Camp”、“Lake”、“Flower”和“Bench”图像。实验相关环境为:Intel Core i7-9750H,CPU主频为2.60 GHz,内存为16 GB,Windows10操作系统和Matlab 2019a软件仿真平台。

    在融合过程中,本文算法中的实验相关参数设置如下:NSST分解中,选取“maxflat”为NSST分解滤波器,分解尺度为4级,分解方向数为{4, 4, 8, 8};ADCSCM中,N0=30,远小于传统PCNN模型中所需的200次迭代次数,Wgh与传统SCM的取值保持一致,即${\boldsymbol{W}}=\left[\begin{array}{ccc} 0.707 & 1 & 0.707 \\ 1 & 0 & 1 \\ 0.707 & 1 & 0.707 \end{array}\right]、g=0.6 、h=20$。

    图 3~6为4组经典的红外与可见光图像在8种不同的融合算法下所得到的融合结果。

    图  3  “Camp”图像的融合结果
    Figure  3.  Fusion results on "Camp" image
    图  4  “Lake”图像的融合结果
    Figure  4.  Fusion results on "Lake" image
    图  5  “Flower”图像的融合结果
    Figure  5.  Fusion results on "Flower" image
    图  6  “Bench”图像的融合结果
    Figure  6.  Fusion results on "Bench" image

    首先,通过人眼视觉系统对上述4组红外与可见光图像的融合结果进行主观分析。

    图 3为“Camp”图像的融合结果。CVT和NSCT算法的融合图像对比度和清晰度偏低,纹理细节损失较多,且人物目标处存在伪影现象;GTF算法的融合图像人物目标部分丢失且整体模糊,严重缺失可见光细节;NSCT-PCNN和NSST-PAPCNN算法的融合图像人物目标较清晰,但严重缺失纹理细节和围栏信息,且NSST-PAPCNN算法的融合图像边缘轮廓十分模糊;MS-WLS和MLGCF算法的融合图像人物目标较清晰,纹理细节较为丰富,但缺失了部分可见光细节;而本文算法的融合图像人物目标和边缘轮廓清晰,纹理细节丰富,灌木、围栏等背景信息保留完整。

    图 4为“Lake”图像的融合结果。CVT、NSCT和GTF算法的融合图像对湖面信息表征出不同程度地丢失,未能成功地综合可见光图像的湖面信息;NSCT-PCNN算法的融合图像林木信息茂盛,但湖面存在着区域污染,NSST-PAPCNN算法的融合图像整体偏亮,右上角字母处较模糊;MS-WLS和MLGCF算法的融合图像整体对比度偏低,湖面和草地信息较丰富;本文算法的融合图像整体对比度适中,清晰度高,较好地结合了红外与可见光图像的湖面和草地信息。

    图 5为“Flower”图像的融合结果。8种算法的边缘轮廓清晰、纹理细节较丰富,但CVT和NSCT算法的融合图像红外目标处存在着伪影;GTF、NSCT-PCNN和NSST-PAPCNN算法的融合图像清晰度较低;本文算法的融合图像红外目标更突出,整体清晰度和视野信息保真度更高。

    图 6为“Bench”图像的融合结果。CVT和NSCT算法的融合图像缺乏纹理细节,人物目标处存在伪影;GTF算法的融合图像严重缺失可见光图像里的信息;NSCT-PCNN算法的融合图像人物目标较突出,但水面处存在着区域污染;NSST-PAPCNN算法的融合图像人物目标模糊,但缺乏背景信息;MS-WLS和MLGCF算法的融合图像视野信息保真度较高,缺乏背景信息;本文算法的融合图像人物目标突出,可见光背景信息丰富,边缘轮廓清晰。

    故综合对比图 3~6,本文算法的融合图像主观视觉效果表现最佳,更符合人眼视觉系统的输出。

    本文选用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、空间频率(Spatial Frequency, SF)、标准差(Standard Deviation, SD)以及视觉信息保真度(Visual Information Fidelity for Fusion, VIFF)共5项指标对4组红外与可见光图像的融合结果进行客观评价,5项客观指标为正项指标,其值越大表明着融合效果相对越好。表 1为4组融合图像在5项指标下的客观评价结果,最优值已通过加粗标出。

    表  1  4组融合图像的客观评价结果
    Table  1.  The objective evaluation results of four groups of fused images
    Fused
    images
    Evaluation indexes Algorithms
    CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed
    Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472
    IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566
    SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934
    SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731
    VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724
    Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960
    IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731
    SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353
    SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824
    VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040
    Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305
    IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793
    SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945
    SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559
    VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164
    Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774
    IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089
    SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494
    SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357
    VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882
    下载: 导出CSV 
    | 显示表格

    观察表 1,通过对比4组图像上8种融合算法各自的5项客观指标值,可以发现本文算法的SF在“Camp”图像上稍低于MS-WLS算法,在“Lake”图像上低于NSCT-PCNN和MS-WLS算法,在“Flower”图像上稍低于MLGCF算法,在“Bench”图像上稍低于MS-WLS算法;VIFF在“Lake”图像上略低于MS-WLS算法,在“Octec”图像上低于MS-WLS和MLGCF算法,其余两组图像上,本文算法的VIFF均为最优值;此外,本文算法对MI、IE和SD共3项指标值的提升效果显著,在4组融合图像上始终为最优值,并在IE和SD两项指标上远高于其他7种融合算法。综合上述对4组融合图像的5项客观指标值进行分析,本文算法的整体表现最佳。综合主观视觉分析和客观指标评价而言,本文算法的融合性能最佳,优于其他7种传统或当前流行的融合算法。

    本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。利用NSST的平移变换性、各向异性等特点将红外与可见光图像分解为低频和高频部分,通过自适应加权法则指导低频部分进行融合,同时通过基于ADCSCM的融合规则指导高频部分进行融合。实验结果表明,本文算法在主观视觉和客观指标上均表现更优,其融合图像更为清晰,红外目标突出,纹理细节和边缘信息也更丰富,同时能够获得较高的互信息、信息熵和标准差,是一种有效的红外与可见光图像融合算法。

  • 图  1   ADCSCM结构

    Figure  1.   The structure of ADCSCM

    图  2   本文算法融合流程图

    Figure  2.   Fusion flow chart of the proposed algorithm

    图  3   “Camp”图像的融合结果

    Figure  3.   Fusion results on "Camp" image

    图  4   “Lake”图像的融合结果

    Figure  4.   Fusion results on "Lake" image

    图  5   “Flower”图像的融合结果

    Figure  5.   Fusion results on "Flower" image

    图  6   “Bench”图像的融合结果

    Figure  6.   Fusion results on "Bench" image

    表  1   4组融合图像的客观评价结果

    Table  1   The objective evaluation results of four groups of fused images

    Fused
    images
    Evaluation indexes Algorithms
    CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed
    Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472
    IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566
    SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934
    SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731
    VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724
    Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960
    IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731
    SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353
    SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824
    VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040
    Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305
    IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793
    SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945
    SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559
    VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164
    Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774
    IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089
    SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494
    SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357
    VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882
    下载: 导出CSV
  • [1] 刘佳, 李登峰. 马氏距离与引导滤波加权的红外与可见光图像融合[J]. 红外技术, 2021, 43(2): 162-169. http://hwjs.nvir.cn/article/id/56484763-c7b0-4273-a087-8d672e8aba9a

    LIU Jia, LI Dengfeng. Infrared and visible light image fusion based on mahalanobis distance and guided filter weight-ing[J]. Infrared Technology, 2021, 43(2): 162-169. http://hwjs.nvir.cn/article/id/56484763-c7b0-4273-a087-8d672e8aba9a

    [2] 江泽涛, 何玉婷, 张少钦. 一种基于对比度增强和柯西模糊函数的红外与弱可见光图像融合算法[J]. 光子学报, 2019, 48(6): 149-158. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201906019.htm

    JIANG Zetao, HE Yuting, ZHANG Shaoqin. Infrared and low-light-level visible image fusion algorithm based on contrast enhancement and cauchy fuzzy function[J]. Acta Photonica Sinica, 2019, 48(6): 149-158. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201906019.htm

    [3]

    MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.

    [4] 王建, 吴锡生. 基于改进的稀疏表示和PCNN的图像融合算法研究[J]. 智能系统学报, 2019, 14(5): 922-928. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201905011.htm

    WANG Jian, WU Xisheng. Image fusion based on the improved sparse representation and PCNN[J]. CAAI Transactions on Intelligent Systems, 2019, 14(5): 922-928. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201905011.htm

    [5]

    LIU Z, FENG Y, CHEN H, et al. A fusion algorithm for infrared and visible based on guided filtering and phase congruency in NSST domain[J]. Optics & Lasers in Engineering, 2017, 97: 71-77.

    [6] 邓立暖, 尧新峰. 基于NSST的红外与可见光图像融合算法[J]. 电子学报, 2017, 45(12): 2965-2970. DOI: 10.3969/j.issn.0372-2112.2017.12.019

    DENG Linuan, YAO Xinfeng. Research on the fusion algorithm of infrared and visible images based on non-subsampled shearlet transform[J]. Acta Electronica Sinica, 2017, 45(12): 2965-2970. DOI: 10.3969/j.issn.0372-2112.2017.12.019

    [7] 王聪, 钱晨, 孙伟, 等. 基于SCM和CST的红外与可见光图像融合算法[J]. 红外技术, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007

    WANG Cong, QIAN Chen, SUN Wei, et al. Infrared and visible images fusion based on SCM and CST[J]. Infrared Technology, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007

    [8]

    TAN W, ZHOU H, SONG J, et al. Infrared and visible image perceptive fusion through multi-level Gaussian curvature filtering image decomposition[J]. Applied Optics, 2019, 58(12): 3064-3073. DOI: 10.1364/AO.58.003064

    [9] 冯贺, 李立, 赵凯. 基于拉普拉斯分解耦合亮度调节的可见光与红外图像融合算法[J]. 电子测量与仪器学报, 2020, 34(10): 91-97. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202010011.htm

    FENG He, LI Li, ZHAO Kai. Fusion algorithm of visible and infrared image based on Laplace decomposition coupled with brightness adjustment[J]. Journal of Electronic Measurement and Instrument, 2020, 34(10): 91-97. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202010011.htm

    [10]

    GUO K, LABATE D. Optimally sparse multidimensional representation using shearlets[J]. SIAM Journal on Mathematical Analysis, 2007, 39(1): 298-318. DOI: 10.1137/060649781

    [11] 焦姣, 吴玲达. 向导滤波和NSST相结合的多光谱与全色图像融合算法[J]. 通信学报, 2018, 39(S2): 79-87. https://www.cnki.com.cn/Article/CJFDTOTAL-TXXB2018S2012.htm

    JIAO Jiao, WU Lingda. Multispectral and panchromatic images fusion method based on guided filter and NSST[J]. Journal on Communications, 2018, 39(S2): 79-87. https://www.cnki.com.cn/Article/CJFDTOTAL-TXXB2018S2012.htm

    [12]

    ZHAN K, ZHANG H, MA Y. New spiking cortical model for invariant texture retrieval and image processing[J]. IEEE Transactions on Neural Networks, 2009, 20(12): 1980-1986. DOI: 10.1109/TNN.2009.2030585

    [13]

    ZHAO C, HUANG Y, QIU S. Infrared and visible image fusion algorithm based on saliency detection and adaptive double-channel spiking cortical model[J]. Infrared Physics & Technology, 2019, 102: 102976.

    [14] 罗娟, 王立平, 谭云兰. 二代Curvelet变换耦合细节度量模型的遥感图像融合算法[J]. 电子测量与仪器学报, 2019, 33(7): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY201907017.htm

    LUO Juan, WANG Liping, TAN Yunlan. Remote sensing image fusion method using second generation curvelet transform coupled with detail metric model[J]. Journal of Electronic Measurement and Instrument, 2019, 33(7): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY201907017.htm

    [15] 苏金凤, 张贵仓, 汪凯. 结合鲁棒主成分分析和非下采样轮廓波变换的红外与可见光图像的压缩融合[J]. 激光与光电子学进展, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    SU J F, ZHANG G C, WANG K. Compressed fusion of infrared and visible images combining robust principal component analysis and non-subsampled contour transform[J]. Laser & Optoelectronics Progress, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    [16]

    YIN S, CAO L, TAN Q, et al. Infrared and visible image fusion based on NSCT and fuzzy logic[C]//Proceedings of the 2010 IEEE International Conference on Mechatronics and Automation, 2010: 671-675.

    [17] 朱攀, 黄战华. 基于二维经验模态分解和高斯模糊逻辑的红外与可见光图像融合[J]. 光电子·激光, 2017, 28(10): 1156-1162. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201710016.htm

    ZHU Pan, HUANG Zhanhua. Fusion of infrared and visible images based on BEMD and GFL[J]. Journal of Optoelectronics · Laser, 2017, 28(10): 1156-1162. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201710016.htm

    [18] 闫利, 向天烛. NSCT域内结合边缘特征和自适应PCNN的红外与可见光图像融合[J]. 电子学报, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002

    YAN Li, XIANG Tianzhu. Fusion of infrared and visible based on edge feature and adaptive PCNN in NSCT domain[J]. Acta Electronica Sinica, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002

    [19] 侯瑞超, 周冬明, 聂仁灿, 等. 结合HSI变换与双通道脉冲发放皮层的彩色多聚焦图像融合[J]. 云南大学学报: 自然科学版, 2019, 41(2): 245-252. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201902006.htm

    HOU Ruichao, ZHOU Dongming, NIE Rencan, et al. Multi-focus color image fusion using HSI transform and dual channel spiking cortical model[J]. Journal of Yunnan University: Natural Sciences Edition, 2019, 41(2): 245-252. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201902006.htm

    [20]

    Nencini F, Garzelli A, Baronti S, et al. Remote sensing image fusion using the curvelet transform[J]. Information Fusion, 2007, 8(2): 143-156. DOI: 10.1016/j.inffus.2006.02.001

    [21]

    ZHANG Q, Guo B. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Process, 2009, 89(7): 1334-1346. DOI: 10.1016/j.sigpro.2009.01.012

    [22]

    MA J, CHEN C, LI C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100-109. DOI: 10.1016/j.inffus.2016.02.001

    [23]

    QU X, YAN J, XIAO H, et al. Image fusion algorithm based on spatial frequency-motivated pulse coupled neural networks in nonsubsampled contourlet transform domain[J]. Acta Automatica Sinica, 2008, 34(12): 1508-1514. DOI: 10.1016/S1874-1029(08)60174-3

    [24]

    YIN M, LIU X, LIU Y, et al. Medical image fusion with parameter-adaptive pulse coupled neural network in nonsubsampled shearlet transform domain[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(1): 49-64. DOI: 10.1109/TIM.2018.2838778

  • 期刊类型引用(6)

    1. 李馥颖,张艳珠. 基于虚拟现实的大视差图像网格优化拼接算法. 计算机仿真. 2024(05): 193-196+505 . 百度学术
    2. 张健,黄安穴. 基于划区域宇宙算法的红外与可见光图像融合研究. 光电子·激光. 2024(09): 962-970 . 百度学术
    3. 祁艳杰,侯钦河. 多尺度和卷积注意力相结合的红外与可见光图像融合. 红外技术. 2024(09): 1060-1069 . 本站查看
    4. 杜群,江亚峰,王占光,袁明新. 基于交叉自注意力的多模态图像融合方法. 装备制造技术. 2024(09): 21-25 . 百度学术
    5. 蒋杰伟,刘尚辉,金库,刘海洋,魏戌盟,巩稼民. 基于FCM与引导滤波的红外与可见光图像融合. 红外技术. 2023(03): 249-256 . 本站查看
    6. 韩晓娟. 基于数字媒体技术的图像融合算法分析. 电子元器件与信息技术. 2022(12): 21-24+29 . 百度学术

    其他类型引用(4)

图(6)  /  表(1)
计量
  • 文章访问数:  146
  • HTML全文浏览量:  56
  • PDF下载量:  29
  • 被引次数: 10
出版历程
  • 收稿日期:  2021-05-19
  • 修回日期:  2021-08-04
  • 刊出日期:  2022-07-19

目录

/

返回文章
返回