基于NSCT和最小化-局部平均梯度的图像融合

杨孙运, 奚峥皓, 王汉东, 罗晓, 阚秀

杨孙运, 奚峥皓, 王汉东, 罗晓, 阚秀. 基于NSCT和最小化-局部平均梯度的图像融合[J]. 红外技术, 2021, 43(1): 13-20.
引用本文: 杨孙运, 奚峥皓, 王汉东, 罗晓, 阚秀. 基于NSCT和最小化-局部平均梯度的图像融合[J]. 红外技术, 2021, 43(1): 13-20.
YANG Sunyun, XI Zhenghao, WANG Handong, LUO Xiao, KAN Xiu. Image Fusion Based on NSCT and Minimum-Local Mean Gradient[J]. Infrared Technology , 2021, 43(1): 13-20.
Citation: YANG Sunyun, XI Zhenghao, WANG Handong, LUO Xiao, KAN Xiu. Image Fusion Based on NSCT and Minimum-Local Mean Gradient[J]. Infrared Technology , 2021, 43(1): 13-20.

基于NSCT和最小化-局部平均梯度的图像融合

基金项目: 

国家自然科学基金项目 61803255

详细信息
    作者简介:

    杨孙运(1993-)男,硕士研究生,研究方向:智能感知,智能控制,数据分析

    通讯作者:

    阚秀(1983-)女,博士,副教授。研究方向:智能感知,智能控制,数据分析。E-mail:xiu.kan@sues.edu.cn

  • 中图分类号: TP391

Image Fusion Based on NSCT and Minimum-Local Mean Gradient

  • 摘要: 针对传统红外图像与可见光图像融合存在对比度低、细节丢失、目标模糊等问题,本文基于非下采样轮廓波变换(Non-subsampled Contourlet Transform,NSCT)的思想,通过改进权重函数和融合规则,建立新的融合算法实现红外图像和可见光图像的有效融合。首先,通过NSCT变换对红外和可见光图像进行多尺度分解得到对应的低频系数和高频系数。然后,采用改进的最小化规则和局部平均梯度规则分别对低频系数和高频系数进行融合处理,得到对应的最优融合系数,并将所得融合系数进行NSCT逆变换得到最终融合图像。最后,使用公共数据集与其他5种算法进行对比实验,并在7个具有实际意义的性能评价指标约束下,验证所设计算法的有效性和鲁棒性。
    Abstract: To address the problems of low contrast, detail loss, and target blur in the fusion of traditional infrared and visible images, this study uses the idea of non-subsampled contourlet transform (NSCT) to improve the weight function and fusion rules and thus develops a new fusion algorithm to realize the effective fusion of infrared and visible images. First, NSCT is used to decompose infrared and visible images at multiple scales to obtain the corresponding low-and high-frequency coefficients. Then, the improved minimization and local mean gradient rules are used to fuse the low- and high-frequency coefficients, respectively, and thus to obtain the corresponding optimal fusion coefficient. The obtained fusion coefficient is then converted via an NSCT inverse transformation to obtain the final fused image. Finally, a public dataset is used to compare the proposed algorithm with the other five algorithms. The effectiveness and robustness of the proposed algorithm are verified under the constraints of seven performance evaluation indices having practical significance.
  • 近年来,借助于深度学习等理论,视觉目标跟踪技术取得了重大突破。但现有跟踪算法大多是针对可见光场景,对于热红外目标跟踪的研究文献较少,只有LIU等人[1-4]进行了较为深入的研究。

    与可见光目标跟踪相比,热红外跟踪具有不受照明变化影响的优点,可以在完全黑暗的情况下跟踪目标。因此,热红外跟踪在灾难救援、视频监控和夜间巡逻等领域具有广阔的应用前景[5]。随着热红外成像设备在民用领域的普及化使用,热红外目标跟踪正逐步成为计算机视觉领域的一个研究热点。

    和可见光跟踪相似,热红外跟踪也面临着不少挑战。首先,热红外图像缺少颜色信息,较难获得目标对象的判别特征,从而降低了跟踪性能[6]。比如两个不同颜色的相似物体在热红外图像中几乎是相同的。除此之外,热红外跟踪还面临如遮挡、外观变化和运动模糊等挑战。

    近年来,深度学习已成功应用到视觉跟踪中,取得了一系列重要成果。与基于手工特征的跟踪器相比,基于卷积神经网络(Convolutional Neural Networks,CNN)的跟踪器可以获得更优越的跟踪性能。因为单个卷积层特征对跟踪中的各种挑战(例如形变和背景杂斑)鲁棒性不强,现有基于深度学习的跟踪算法大多是融合浅层和深层特征进行跟踪,比如HCF(Hierarchical Convolutional Features)[7]基于KCF(Kernel Correlation Filter)框架,使用预训练的VGG-19(Visual Geometry Group-19)网络提取目标的Conv3-4(Convolution 3-4)、Conv4-4、Conv5-4层特征进行融合,而TADT(Target-Aware Deep Tracking)[8]基于全卷积孪生网络(Fully-Convolutional Siamese Network,SiamFC)[9]框架使用预训练的VGG-16网络提取Conv4-1、Conv4-3层特征并进行融合等等。上述算法均属于特征层融合,并没有实现决策层融合,而且使用单一跟踪器无法有效应对复杂背景及目标外观变化等挑战因素。

    考虑到卷积神经网络的强大表征能力及其在视觉跟踪中的成功应用,本文将在可见光图像数据集上预训练的CNN用于热红外跟踪任务,并基于此设计了一个多响应图集成的热红外目标跟踪方法。

    全卷积孪生网络是ECCV 2016(European Conference on Computer Vision 2016)会议[9]上提出的一种全新的目标跟踪框架,其通过比较初始目标模板和当前帧中搜索区域的特征来进行跟踪。其实现流程可以由下式定义:

    $$ f\left( {z, x} \right) = \varphi \left( z \right)*\varphi \left( x \right) + b $$ (1)

    式中:ϕ(z)为第一帧中模板图像z对应的特征图;ϕ(x)为后续帧中待搜索区域x的特征图;*为卷积运算符,b为偏置项。图 1给出了SiamFC网络结构图。

    图  1  SiamFC网络结构
    Figure  1.  SiamFC network structure

    本文算法选择全卷积孪生网络作为目标跟踪的基本框架,主要原因在于:①全卷积孪生网络结构简单,可以在较大的搜索图像中定位目标模版,并且跟踪速度快。②在跟踪过程中目标模板不更新,可以有效应对目标遮挡等挑战。

    虽然Siamese框架是在大型视频数据集ILSVRC15(Large Scale Visual Recognition Challenge 2015)上预先训练的,但是Siamese跟踪器没有充分利用与特定目标对象相关的语义信息。因此在本文算法中,我们借鉴了TADT的做法,从一个预先训练好的CNN中选择对于目标最具判别性以及对于目标尺度变化最为敏感的卷积滤波器(特征通道)来生成目标深度特征。在本文中,我们选择使用VGG-16卷积网络来提取对于热红外目标敏感的特征。在2.2节中将给出特征通道的选择方法。

    诸如VGG、ResNet(Residual Network)等卷积网络中的参数是在庞大的数据集中预训练获得的,相对于当前要跟踪的对象存在许多冗余的特征通道信息。冗余的特征通道会占用大量的计算资源,这也是许多基于深度学习的跟踪算法执行速度较慢的原因。除此之外,冗余的特征通道还会对跟踪造成干扰,影响跟踪精度。本文在特征提取过程中进行通道选择,减少冗余特征通道对当前跟踪目标的不利影响。

    本文的通道选择是基于文献[10]提出的GCAM(Grad-Class Activation Mapping)模型来实现的。GCAM模型根据每个输入像素点的梯度来表示其属于给定类别标记的重要性,通过沿特征通道计算加权和,生成一个类活动映射。特征通道的权值是通过对该通道中所有梯度的全局平均池化(Global Average Pooling,GAP)来计算的,权值高的特征通道对当前类的贡献大。公式如下:

    $$ {\varDelta _i} = {G_{{\text{AP}}}}\frac{{\partial L}}{{\partial {z_i}}} $$ (2)

    式中:Δi表示计算出的第i个通道的重要性;GAP是全局平均池化函数;L是损失函数;zi指的是第i个过滤器的输出特征。

    借鉴该理论,本文算法在提取深度特征后计算每个特征通道的梯度值,从中选择最能标记目标特征也就是重要性较高的特征通道进行后续运算。

    虽然当前主流跟踪算法都使用了深度特征,但使用单个跟踪器在某些场景下仍然很难获得优秀的跟踪性能。基于此,本文提出利用多个互补的卷积层特征构建一个集成式热红外目标跟踪方法。本文利用VGG-16卷积网络分别提取待跟踪目标的Conv4-1、Conv4-2、Conv4-3和Conv5-1层特征,并形成如下3种特征组合:{Conv4-2、Conv4-1}、{Conv4-3、Conv4-1}、{Conv5-1、Conv4-1}。利用上述3种特征组合分别设计跟踪器1、跟踪器2、跟踪器3,在3种特征组合中均包含Conv4-1层,这是因为文献[8]的实验表明Conv4-1层特征最适合用来进行目标的尺度估计。每个跟踪器的计算过程都是相似的,下面以跟踪器1为例给出具体跟踪过程:

    1)提取待跟踪目标的Conv4-1和Conv4-2层特征(每层共包含512个特征通道);

    2)利用2.2节中提到的方法计算所有特征通道的梯度信息,选择对于目标活动和尺度变化较为敏感的特征通道参与后序的互相关操作。经过通道选择后,降低了卷积层的维度,提高了卷积层的有效性。本文按照重要性高低对所有特征通道进行排序并选择了Conv4-2层的前300个通道和Conv4-1层的前80个通道进行融合参与后续运算。

    3)通过互相关操作获取目标响应图。

    利用2.3节的方法可以获得多个响应图,在本节将给出利用KL散度将多个响应图进行集成的过程。

    我们可以用Pk表示第k个跟踪器产生的目标位置响应图,QRM×N表示集成后的响应图。然后采用KL散度度量他们之间的广义距离,该距离越小则认为他们之间的分布差异越小,也就意味着集成后的概率图Q更能反映每一个概率图Pk中一致的部分,即目标出现概率最大的区域。通过最小化该KL散度,可以达到优化概率图Q的目的,具体过程如下式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{k = 1}^n {{\text{KL}}({P^k}||Q)} $$ (3)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    其中:

    $$ {\text{KL}}({P^k}||Q) = \sum\limits_{ij} {p_{ij}^k} \log \frac{{p_{ij}^k}}{{{q_{ij}}}} $$ (4)

    式中:pijqij分别表示概率图P与概率图Q中的第(i, j)个元素。pijk表示概率图Pk中目标位置为(i, j)的概率,i={1, 2, …, M}, j={1, 2, …, N},并且服从$ \sum {p_{ij}^k} = 1 $。

    由于在跟踪场景中可能存在背景杂斑等干扰,因此在响应图中会存在“多峰”现象,即存在多个目标位置响应。文献[1]提供了一个行之有效的去噪策略,本文借鉴该策略将2.3节中得到的响应图进行过滤,下式给出过滤过程:

    $$ {P^{k, z}} = {P^k} \odot {P^z} $$ (5)

    式中:k={1, 2, …, n-1},z={k+1, k+2, …, n}。

    在式(5)中n代表跟踪器的数量;⊙表示点乘操作。按照式(5)进行去噪处理可以使过滤后的概率图具有更高的置信度,提高跟踪的精确度。n个响应图进行两两去噪处理后可以得到(n(n-1))/2个噪音更少、置信度更高的概率图A={P1, 2, P1, 3, …, P2, 3, …Pn-1, n}。因此公式(3)可以被重写成如下形式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} $$ (6)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    根据拉格朗日乘数法,令:

    $$ F({p_{ij}}, {q_{ij}}) = \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} + \lambda (\sum {{q_{ij}} - 1} ) $$ (7)

    对所有的pijqij求偏导并令F′(p)和F′(q)等于0,最终可求得:

    $$ Q = \frac{2}{{n(n - 1)}}\sum\limits_{p \in A} p $$ (8)

    通过取式(8)中响应图Q中的最大值可以得到目标的位置(x, y):

    $$ (x, y) = \arg \mathop {\max }\limits_{i, j} Q(i, j) $$ (9)

    我们在Win10系统中使用Matlab2016b编程语言实现了所提出的目标跟踪算法。为了验证本文所提算法的有效性,在配备I7-10700 2.9 GHz CPU和GTX-1080 GPU的PC上进行了实验,对比算法有HCF[7]、SiamFC[9]、TADT[8]、MDNet(Multi-Domain Convolutional Neural Networks)[11]、ATOM(Accurate Tracking by Overlap Maximization)[12]、MCFTS(Multi-Layer Convolutional Features for Thermal Infrared Tracking)[1]、HSSNet(Hierarchical Spatial-Aware Siamese Network)[2]、MLSSNet(Multi-Level Similarity Network)[3]、MMNet(Multi-Task Matching Network)[4]。其中MCFTS、MLSSNet、HSSNet和MMNet是专用红外目标跟踪算法,其他5种算法均为近年来优秀的可见光跟踪算法。

    因为目前公开的红外视频数据集非常少,所以很多学者使用VOT-TIR16(The Thermal Infrared Visual Object Tracking 2016)[13]和PTB-TIR(Thermal Infrared Pedestrian Tracking Benchmark)[14]作为热红外跟踪评估数据集。VOT-TIR16数据集中视频序列过少,只包含25个红外视频序列,部分跟踪算法可以通过调参的方式去适应。PTB-TIR数据集中虽然包含60个红外视频序列,但跟踪目标均为行人,类别较为单一,无法评估跟踪算法对通用目标的跟踪效果。

    2020年8月发布的LSOTB-TIR[15]有效解决了上述问题。LSOTB-TIR是迄今为止规模最大,多样性最强的热红外目标跟踪数据集。包含120个跟踪序列,涵盖22个目标类别,超过8.2万帧图像。LSOTB-TIR中定义了4种场景属性,这4种场景中的红外视频分别由车载、手持、无人机载和监控设备拍摄,保证了视频来源的多样性。著名的可见光数据集OTB-100(Object Tracking Benchmark)定义了11种挑战属性,LSOTB-TIR则定义了红外目标跟踪中的12种挑战属性。在这12种挑战属性中,有8种属性和OTB-100中的类似,分别为遮挡、出视野、背景杂斑、形变、尺度变化、低分辨率、快速运动和运动模糊,这里不再赘述。剩余的4种为热红外跟踪中特有的挑战属性,具体定义在表 1中列出。

    表  1  LSOTB-TIR定义的的4种热红外挑战属性
    Table  1.  Four thermal infrared challenge attributes defined by LSOTB-TIR
    Infrared challenge attributes Specific definitions
    Aspect Ratio
    Variation(ARV)
    The aspect ratio of the target exceeds [0.5, 2] during tracking
    Intensity Variation
    (Ⅳ)
    The intensity of the target changes during tracking
    Thermal Crossover
    (TC)
    Two targets of the same intensity cross each other
    Distractor(DIS) There are interfering objects similar to the target around the target
    下载: 导出CSV 
    | 显示表格

    因为LSOTB-TIR的全面性和多样性,所以本文选择使用LSOTB-TIR作为评估数据集。需要说明的是,本文并没有选择全部视频序列进行测试,而是从上述4种应用场景数据集中随机选择了40个典型红外短视频序列进行测试,这是因为LSOTB-TIR没有跟踪失败重启机制,在长视频序列中如果在某一帧丢失目标并且在后续帧无法找回将极大影响跟踪成功率,采用短视频序列测试更加公平。本文所提算法在40个视频序列上的平均跟踪速度约为11.2 FPS。

    图 2为本文算法与MDNet等9种对比算法在LSOTB-TIR上生成的总精确度图和成功率图,本文提出的算法在这两项重要指标上均排名第一。与参照算法TADT相比,跟踪精确度和成功率分别提高了3.6%和4.2%,大幅超过了MMNet等红外目标跟踪算法,证明了本文采用的响应图集成策略取得较好的效果。图 3给出了10种算法在变形、背景杂斑、运动模糊、相似物干扰等4种复杂场景下的精确度曲线图,本文所提算法均体现了较强的鲁棒性。相比优秀的可见光跟踪器ATOM,本文算法的跟踪精确度率分别提高了13.2%、10.5%、13.9%和27.8%,说明本文所提算法更适合于红外目标跟踪。

    图  2  10种算法在LSOTB-TIR的距离精度曲线图和成功率曲线
    Figure  2.  Distance accuracy curves and success rate curves of ten algorithms in LSOTB-TIR
    图  3  10种算法在LSOTB-TIR上4种挑战性场景下精确度曲线图
    Figure  3.  Accuracy curves of ten algorithms in four challenging scenarios of LSOTB-TIR

    为了更直观地评估本文所提算法的跟踪性能,图 4给出了本文算法与另外3种在LSOTB-TIR数据集上表现优异的算法(TADT、ATOM和MDNet)在car_S_003、cow_H_001、person_S_015、street_S_001等4个视频序列的可视化跟踪结果。这4个视频序列非常具有代表性,包括汽车、动物、行人和环境复杂的街道,几乎涵盖了重要种类的地面红外目标。定性分析过程如下:

    图  4  本文算法与另外三种算法跟踪结果比较
    Figure  4.  Comparison of tracking results with other three algorithms

    1)car_S_003视频序列中跟踪目标为行进中的汽车。ATOM跟踪器在第9帧时即受到周围相似物的干扰而发生漂移,第52帧中TADT和MDNet也接近丢失目标,第105帧时只有本文算法可以准确跟踪。

    2)cow_H_001跟踪目标为右起第二只羊,从视频截图可以看出,ATOM和MDNet均受到相似物和周围环境干扰丢失目标,只有本文算法和TADT可以持续准确跟踪。

    3)person_S_015视频序列中跟踪目标为右边的行人,旁边有个撑伞的行人和其同步前进,存在相似物及热交叉等干扰。ATOM、TADT分别在第30帧、第210帧时跟踪失败。相比MDNet,本文算法定位更为精确。

    4)street_S_001视频序列中跟踪目标为街道上背包的行人,该视频序列包含热交叉、背景杂斑、遮挡等多种挑战。从视频截图可以看出其他几种算法跟踪框均漂移到相似的行人上,而本文算法因为集成了多个跟踪器可以正确跟踪。

    本节通过标准数据集LSOTB-TIR上的消融实验来验证算法相关模块设计的合理性。首先,为了验证通道选择的有效性,以跟踪器1(Ours_1)为例,比较了不进行通道选择(No_CS)和进行通道选择的效果对比。如图 5(a)所示,本文算法在只选择了300个通道的情况下跟踪精度还提高了0.6%,证明冗余通道可以丢弃,并且丢弃冗余通道后跟踪速度有了显著提升,因此利用通道选择后的跟踪器参与后续集成更加高效。其次,为了验证集成方法的有效性,将本文提出的集成方法(Ours)与跟踪器1(Ours_1)、跟踪器2(Ours_2)及跟踪器3(Ours_3)分别单独跟踪的结果进行了对比。如图 5(b)所示,可以看出集成算法较其他3个单独跟踪方法在跟踪精确度上分别提升了2.5%、3.6%和1.6%。消融结果证明了本文所提算法的有效性。

    图  5  消融实验
    Figure  5.  Ablation experiment

    基于简洁高效的全卷积孪生网络框架提出了一种多响应图集成的红外目标跟踪算法。算法的创新之处在于利用预训练的VGG-16网络来提取热红外目标的深度特征并进行通道选择,进而通过对不同层次的深度特征进行组合设计了3个跟踪器。最后基于KL散度将3个跟踪器的响应图进行集成以获取最优结果。为了验证本文算法的实际效果,在大型热红外数据集LSOTB-TIR上进行了测试并和近年来几种先进的目标跟踪算法进行了比较。实验结果表明,本文所提算法性能良好,具有一定的实际应用价值。

  • 图  1   NSCT分解图

    Figure  1.   NSCT decomposition figure

    图  2   红外图像和显著性检测图

    Figure  2.   Infrared image and significance detection diagram

    图  3   式(9)函数对应表达

    Figure  3.   The corresponding expression of equation (9) is the function

    图  4   式(10)函数对应表达

    Figure  4.   The corresponding expression of equation (10) is the function

    图  5   改进前后的融合结果对比图

    Figure  5.   Comparison before and after improvement

    图  6   图像融合流程图

    Figure  6.   Schematic diagram of image fusion

    图  7   “UN Camp”图像的融合结果

    Figure  7.   "UN Camp"image fusion results

    图  8   “Kaptein_1123”图像的融合结果

    Figure  8.   "Kaptein_1123"image fusion results

    图  9   “Quad”图像的融合结果

    Figure  9.   "Quad"image fusion results

    表  1   “UN Camp”图像融合结果的客观评价数据

    Table  1   Objective evaluation data of fusion results of "UN Camp" image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 5.8736 5.8778 5.9535 6.6971 6.0300 6.7782
    AG 5.0301 5.2612 5.9634 5.4543 6.9987 8.6568
    SD 18.6783 18.5153 19.3430 28.6416 20.2610 33.7394
    SF 10.5760 10.7665 12.6522 10.9804 14.8598 18.0516
    MI 1.7317 1.7287 1.7345 1.8071 1.7482 1.7807
    VIF 0.2834 0.2889 0.3066 0.4386 0.2932 0.5982
    QABF 0.3531 0.3391 0.4069 0.3956 0.3895 0.4116
    下载: 导出CSV

    表  2   “Kaptein_1123”图像的融合结果的客观评价数据

    Table  2   Objective evaluation data of fusion results of "Kaptein_1123" image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 6.5108 6.5400 6.4460 6.7483 6.4623 6.7527
    AG 4.7763 6.2218 3.8271 5.1686 4.2784 7.1084
    SD 32.0192 32.6583 30.8624 36.0783 31.3539 47.2670
    SF 11.9578 17.3752 9.9378 15.4644 11.4173 19.4531
    MI 1.6681 1.6794 1.6542 1.6272 1.6570 1.6728
    VIF 0.2852 0.2693 0.2639 0.1811 0.2561 0.4387
    QABF 0.3080 0.2947 0.2552 0.3225 0.2737 0.3362
    下载: 导出CSV

    表  3   “Quad”图像的融合结果客观评价数据

    Table  3   Objective evaluation data of fusion results of "Quad" image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 5.7331 5.8807 6.4628 6.0780 5.7632 6.0501
    AG 2.6998 3.1727 2.9816 3.0675 2.9061 3.4874
    SD 29.8808 28.9345 34.2477 39.7308 26.0337 35.0966
    SF 6.6144 7.5910 7.1388 7.4617 7.1121 8.1971
    MI 1.7991 1.7882 1.8732 1.8816 1.7565 1.8579
    VIF 0.1881 0.2749 0.3262 0.2403 0.2637 0.2963
    QABF 0.2010 0.3970 0.3509 0.2436 0.4100 0.4534
    下载: 导出CSV

    表  4   “UN Camp”融合图像的达成度

    Table  4   Degree of "UN Camp" fusion image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 0.8665 0.8672 0.8783 0.9880 0.8896 1.0000
    AG 0.5811 0.6078 0.6889 0.6301 0.8085 1.0000
    SD 0.5536 0.5488 0.5733 0.8489 0.6005 1.0000
    SF 0.5859 0.5964 0.7009 0.6083 0.8232 1.0000
    MI 0.9583 0.9566 0.9598 1.0000 0.9674 0.9854
    VIF 0.4738 0.4829 0.5125 0.7332 0.4901 1.0000
    QABF 0.8579 0.8239 0.9886 0.9611 0.9463 1.0000
    TGA 4.8770 4.8835 5.3023 5.7696 5.5256 6.9854
    下载: 导出CSV

    表  5   “Kaptein_1123”融合图像的达成度

    Table  5   degree of "Kaptein_1123" fusion image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 0.9642 0.9685 0.9546 0.9993 0.9570 1.0000
    AG 0.6719 0.8753 0.5384 0.7271 0.6019 1.0000
    SD 0.6774 0.6909 0.6529 0.7633 0.6633 1.0000
    SF 0.6147 0.8932 0.5109 0.7950 0.5869 1.0000
    MI 0.9933 1.0000 0.9850 0.9689 0.9867 0.9961
    VIF 0.6501 0.6139 0.6016 0.4128 0.5838 1.0000
    QABF 0.9161 0.8766 0.7591 0.9593 0.8141 1.0000
    TGA 5.4877 5.9183 5.0024 5.6257 5.1937 6.9961
    下载: 导出CSV

    表  6   “Quad”融合图像的达成度

    Table  6   degree of "Quad" fusion image

    LPRP CBF CT DTCWT NSCT-M Ours
    IE 0.8871 0.9099 1.0000 0.9405 0.8917 0.9361
    AG 0.7742 0.9098 0.8550 0.8796 0.8333 1.0000
    SD 0.7521 0.7283 0.8620 1.0000 0.6553 0.8834
    SF 0.8069 0.9261 0.8709 0.9103 0.8676 1.0000
    MI 0.9562 0.9504 0.9955 1.0000 0.9335 0.9874
    VIF 0.5766 0.8427 1.0000 0.7367 0.8084 0.9083
    QABF 0.4433 0.8756 0.7739 0.5373 0.9043 1.0000
    TGA 5.1964 6.1428 6.3573 6.0044 5.8941 6.7152
    下载: 导出CSV
  • [1]

    MA J, MA Y, LI C. Infrared and visible image fusion methods and applications: A survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004

    [2]

    HUANG Z, CHEN L, ZHANG Y, et al. Robust contact-point detection from pantograph-catenary infrared images by employing horizontal- vertical enhancement operator[J]. Infrared Physics & Technology, 2019, 101: 146-155.

    [3]

    HUANG Z, FANG H, LI Q, et al. Optical remote sensing image enhancement with weak structure preservation via spatially adaptive gamma correction[J]. Infrared Physics & Technology, 2018, 94: 38-47.

    [4] 肖中杰.基于NSCT红外与可见光图像融合算法优化研究[J].红外技术, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010

    XIAO Zhongjie. Optimization of Infrared and Visible Image Fusion Algorithm based on NSCT[J]. Infrared Technology, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010

    [5]

    ZHANG B, LU X, PEI H, et al. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform[J]. Infrared Physics & Technology, 2015, 73: 286-297.

    [6]

    ZHOU Z, WANG B, LI S, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 15-26. DOI: 10.1016/j.inffus.2015.11.003

    [7]

    MA J, YU W, LIANG P, et al. Fusion GAN: A generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26. DOI: 10.1016/j.inffus.2018.09.004

    [8]

    ZHANG Y, ZHANG L, BAI X, et al. Infrared and visual image fusion through infrared feature extraction and visual information preservation[J]. Infrared Physics & Technology, 2017, 83: 227-237.

    [9] 肖进胜, 饶天宇, 贾茜, 等.基于图切割的拉普拉斯金字塔图像融合算法[J].光电子·激光, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm

    XIAO Jinsheng, RAO Tianyu, JIA Qian, et al. Image fusion algorithm of Laplacian Pyramid based on graph Cutting[J]. Photoelectron Laser, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm

    [10] 刘斌, 付忠旺.基于四通道不可分提升小波的多聚焦图像融合[J].系统工程与电子技术, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm

    LIU Bin, FU Zhongwang. Multi-focus image fusion based on four-channel Indivisible Lifting Wavelet[J]. Systems Engineering and Electronics technology, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm

    [11] 薛琴, 范勇, 李绘卓, 等.基于广义邻域结构相似度的红外和彩色可见光图像融合[J].四川大学学报:自然科学版, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017

    XUE Qin, FAN Yong, LI Huizhong, et al. Infrared and color visible light image fusion based on generalized neighborhood structure similarity[J]. Journal of Sichuan University: Natural Science, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017

    [12]

    DA Cunha A L, ZHOU J, DO M N. The nonsubsampled contourlet transform: theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15(10): 3089-3101. DOI: 10.1109/TIP.2006.877507

    [13]

    ZHU Z, YIN H, CHAI Y, et al. A novel multi-modality image fusion method based on image decomposition and sparse representation[J]. Information Sciences, 2018, 432: 516-529. DOI: 10.1016/j.ins.2017.09.010

    [14] 甄媚, 王书朋.可见光与红外图像自适应加权平均融合方法[J].红外技术, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008

    ZHEN Mei, WANG Shupeng. Adaptive Weighted average fusion method for Visible light and infrared Images[J]. Infrared Technology, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008

    [15]

    XIA Z, PENG X, FENG X, et al. Scarce face recognition via two-layer collaborative representation[J]. IET Biometrics, 2017, 7(1): 56-62.

    [16] 张新曼, 韩九强.基于视觉特性的多尺度对比度塔图像融合及性能评价[J].西安交通大学学报, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013

    ZHANG Xinman, HAN Jiuqiang. Image fusion and Performance Evaluation of Multi-scale Contrast tower based on visual Characteristics[J]. Journal of Xi 'an Jiaotong University, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013

    [17] 徐丹萍, 王海梅.基于双边滤波和NSST的红外与可见光图像融合[J].计算机测量与控制, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm

    XU Danping, WANG Haimei. Infrared and visible image fusion based on bilateral Filtering and NSST[J]. Computer Measurement and Control, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm

    [18] 李晖晖, 郭雷, 刘坤.基于曲波变换的遥感图像融合研究[J].光电子·激光, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029

    LI Huihui, GUO Lei, LIU Kun. Research on Remote sensing Image Fusion based on Qu Wave Transform[J]. Optoelectronics.Laser, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029

    [19] 王亚杰, 李殿起, 徐心和.基于双树复小波变换彩色多聚焦图像融合方法[J].计算机工程与应用, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005

    WANG Yajie, LI Dianqi, XU Xinhe. Color Multi-focus image fusion method based on Double tree Complex Wavelet Transform[J]. Computer Engineering and Applications, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005

    [20]

    JIN X, JIANG Q, YAO S, et al. A survey of infrared and visual image fusion methods[J]. Infrared Physics & Technology, 2017, 85: 478-501.

    [21] 王跃华, 陶忠祥.红外与可见光图像融合质量评价方法综述[J].红外, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002

    WANG Yuehua, TAO Zhongxiang. Review of evaluation methods of infrared and visible image fusion quality[J]. Infrared, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002

    [22]

    QU G, ZHANG D, YAN P. Information measure for performance of image fusion[J]. Electronics letters, 2002, 38(7): 313-315. DOI: 10.1049/el:20020212

    [23]

    HAN Y, CAI Y, CAO Y, et al. A new image fusion performance metric based on visual information fidelity[J]. Information Fusion, 2013, 14(2): 127-135. DOI: 10.1016/j.inffus.2011.08.002

    [24] 薄瑞峰, 苗鸿宾.目标达成度评价法在机械设计课程考核中的应用[J].机械设计, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm

    BO Ruifeng, MIAO Hongbin. Application of objective Achievement Evaluation method in mechanical Design Course Assessment[J]. Mechanical Design, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm

图(9)  /  表(6)
计量
  • 文章访问数:  304
  • HTML全文浏览量:  80
  • PDF下载量:  40
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-04-01
  • 修回日期:  2021-01-04
  • 刊出日期:  2021-01-19

目录

/

返回文章
返回