基于区域间相似度的红外与可见光图像融合算法研究

任全会, 孙逸洁, 黄灿胜

任全会, 孙逸洁, 黄灿胜. 基于区域间相似度的红外与可见光图像融合算法研究[J]. 红外技术, 2022, 44(5): 492-496.
引用本文: 任全会, 孙逸洁, 黄灿胜. 基于区域间相似度的红外与可见光图像融合算法研究[J]. 红外技术, 2022, 44(5): 492-496.
REN Quanhui, SUN Yijie, HUANG Cansheng. Infrared and Visible Image Fusion Algorithm Based on Regional Similarity[J]. Infrared Technology , 2022, 44(5): 492-496.
Citation: REN Quanhui, SUN Yijie, HUANG Cansheng. Infrared and Visible Image Fusion Algorithm Based on Regional Similarity[J]. Infrared Technology , 2022, 44(5): 492-496.

基于区域间相似度的红外与可见光图像融合算法研究

基金项目: 

2022年度河南省重点研发与推广专项(科技攻关) 222102320125

2022年度河南省高等学校重点科研项目 22B510021

详细信息
    作者简介:

    任全会(1978-),男,汉族,河南郑州人,副教授,主要研究方向:电子系统设计和EDA技术。E-mail: hzkd_2006@163.com

    通讯作者:

    黄灿胜(1970-),男,汉族,广西崇左人,高级实验师,研究方向为人工智能。E-mail: 645948468@qq.com

  • 中图分类号: TN223

Infrared and Visible Image Fusion Algorithm Based on Regional Similarity

  • 摘要: 针对传统的红外图像与可见光图像融合算法存在局部模糊、背景信息不完整的问题,文章提出了一种新的融合算法。使用边缘检测算子实现图像轮廓的提取,同时还进行基于能量的加权融合处理;使用区域间相似度的方法实现信号域的提取,最后根据过信号强度进行图像的融合。为了验证算法的正确性,文章进行了对比测试,同时还使用标准差、信息熵和平均梯度3个参数进行了定量分析,本文方法和传统的加权平均算法相比标准差最大提高106.3%,测试结果表明,本文提出的融合方法融合效果更好,具有一定的实用价值。
    Abstract: To address the problems of local blur and incomplete background information in the traditional fusion algorithm of infrared and visible images, a new fusion algorithm is proposed in this paper. The edge detection operator was used to extract the image contour, and weighted fusion based on energy was also executed. The similarity between regions was used to extract the signal domain. Finally, image fusion is performed according to the over-signal strength. To verify the correctness of the algorithm, a comparative test was conducted and a quantitative analysis was performed using three parameters: standard deviation, information entropy, and average gradient. Compared with the traditional weighted average algorithm, the standard deviation of this method was up to 106.3 %. The test results confirmed that the fusion method proposed in this study has a better fusion effect and practical value.
  • 电网将电力输送到各个节点。电网常常架设在野外环境中,环境较为恶劣,为保证电网正常运行,电网每隔一段距离都会安装一个电力稳定器,尤其在中低压电网中,该设备更是常见[1]。电力稳定器的作用,顾名思义,是稳定电力电压,以减少电压波动,提高电力供应稳定性。电网电力稳定器在长期运行下,再加上各种因素的干扰,难以避免地会出现各种故障问题,尤其在夏季高温环境下,其中某些零部件很容易发生温度过高的问题,导致零部件烧毁,影响了稳定器运行可靠性[2]。面对这种情况,对高温环境下的中低压电网电力稳定器运行可靠性进行定期监测具有重要的现实意义。

    电力设备的故障识别的相关研究有很多。如文献[3]中提出了一种基于振动信号多特征值的电力变压器故障检测研究。该方法先搜集大量变压器正常与典型故障下的振动信号,并提取其特征,然后以此为基础,提出了两段式故障诊断流程,利用截断正态分布拟合方法与合成少数类过采样技术对故障数据进行扩充,进一步提高了分类精度,以此实现故障检测。这种方法由于振动信号在采集过程中容易受到噪声影响,使得识别准确性下降。再如文献[4]中提出了一种电力设备机械振动-超声波融合检测传感器研制及应用。该文设计融合信号多功能调理电路,研制振动加速度-超声波融合传感器,实现机械振动和局部放电信号在空间和时间上的同步检测及数据处理,以此实现故障检测与诊断。这种方法由于超声信号不易获取,且会受到监测距离的限制,故其应用效果不佳。文献[5]中提出了一种面向电力设备红外图像的温度值识别算法。该方法采集目标设备的红外图像,然后进行图像预处理并提取图像特征,最后利用识别方法发现故障目标。该方法在高温环境下采集的红外图像中故障部位的温度显示不明显,也就是目标难以定位,故其应用效果不佳。结合以往研究经验,提出一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。通过该研究以期提高电力稳定器高温运行可靠性识别准确性。

    电力稳定器是电网系统当中的重要组成部分之一,主要作用是稳定电线当中的电压,提高电力运输质量。一旦电网电力稳定器出现问题,将直接影响电网运行可靠性。针对这一点,研究一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。

    研究电力稳定器运行状态的前提和基础是获取信息源,也就是关于电力稳定器的图像。关于电力稳定器图像的采集技术有很多,如CCD、激光雷达、红外热像仪、红外成像技术。这些技术采集到的图像虽然各具优势,但是应用在本研究中,并不适合。电力稳定器某部位出现异常时该部位温度会较周围其他部分温度高,一般情况下,直接使用红外热像仪就可以,但是当环境温度较高时,会使得稳定器高温部分显示的红外信息并不明显。针对这种情况,利用红外成像技术采集电力稳定器图像。红外成像技术框架如图 1所示。

    图  1  电力稳定器图像采集示意图
    Figure  1.  Schematic diagram of the image acquisition of the power stabilizer

    该技术原理如下:首先利用光源系统为其提供照明,然后利用分光计将光分散处理,照射到目标电力稳定器上,这时光会被反射回来,经过聚焦透镜后,利用红外相机采集反射光,形成中低压电网电力稳定器红外图像[6]

    经过红外成像技术采集电力稳定器图像之后,还需要进行预处理,增强图像中所隐含的信息辨识度[7]。预处理包括3方面,即红外稳定器图像灰度化、图像滤波以及图像对比度增强。

    1)红外稳定器图像灰度化

    图像灰度化是指将图像像素转换到0~255区间,让红绿蓝三色彩分量降低[8]。处理公式如下:

    $$ A = \frac{{{w_1}{A_1} + {w_2}{A_2} + {w_3}{A_3}}}{3} $$ (1)

    式中:A代表图像灰度化结果;A1A2A3代表原图像的色彩三分量;w1w2w3代表原图像色彩三分量对应的权重,分别取值为0.299、0.587、0.144。

    2)红外稳定器图像滤波

    图像滤波,即平滑图像,去除图像中的噪声点[9]。红外稳定器图像滤波过程如下:首先输入待滤波的图像,其次选取滤波窗口,记为S,对窗口对应的红外稳定器图像像素灰度值进行从小到大排序,然后选取其中的中间值,即:

    $$ {B_{i,j}} = \text{Med}\left[ {C\left( n \right)} \right] $$ (2)

    式中:Bi, j代表红外稳定器图像像素灰度序列的中间值;C代表灰度值序列;n代表滤波窗口S内的像素点数;Med代表中间值符号。

    然后按照下述公式计算与滤波窗口S内灰度最小值和最大值之间的差值p1p2q1q2

    $$ \left\{ \begin{gathered} {p_1} = {B_{i,j}} - \min {b_{i,j}} \hfill \\ {p_2} = {B_{i,j}} - \max {b_{i,j}} \hfill \\ \end{gathered} \right. $$ (3)
    $$ \left\{ \begin{gathered} {q_1} = {C_{i,j}} - \min {b_{i,j}} \hfill \\ {q_2} = {C_{i,j}} - \max {b_{i,j}} \hfill \\ \end{gathered} \right. $$ (4)

    式中:$ \min {b_{i,j}} $、$ \max {b_{i,j}} $分别代表滤波窗口S内灰度最小值和最大值;Ci, j代表滤波窗口S内随机一点(i, j)处的灰度值。

    然后判断是否p1大于0,且p2小于0?若是,进行下一步,否则扩大滤波尺寸,记为S′,并回到开始滤波步骤,按照上述流程,重新进行滤波处理。最后判断是否q1大于0,且q2小于0?若是,将Ci, j作为输出值,否则把Bi, j作为输出值[10]

    3)图像对比度增强

    图像对比度增强的目的是突出红外稳定器图像中的关键信息,弱化红外稳定器图像中的背景信息[11]。在这里采用分段线性灰度变换法,即每段根据需要可以采用不同的线性变换来增强图像对比度。在这里分为3段,即背景段、过渡段、目标段。原理如下:

    $$ {\hat D_{i,j}} = \left\{ \begin{gathered} \frac{{\left( {{E_3} - {e_2}} \right)\left( {{D_{i,j}} - {e_1}} \right)}}{{{e_3} - {e_1}}} + {e_2},\,\,{e_1} \leqslant {D_{i,j}} \lt {e_3} \hfill \\ \frac{{\left( {{E_4} - {E_3}} \right)\left( {{D_{i,j}} - {e_3}} \right)}}{{{e_4} - {e_3}}} + {E_3},\,\,{e_3} \leqslant {D_{i,j}} \lt {e_4} \hfill \\ \frac{{\left( {{E_2} - {E_4}} \right)\left( {{D_{i,j}} - {e_4}} \right)}}{{{E_1} - {e_4}}} + {E_4},\,\,{e_4} \leqslant {D_{i,j}} \lt {E_1} \hfill \\ \end{gathered} \right. $$ (5)

    式中:$ {\hat D_{i,j}} $代表增强后的红外稳定器图像;Di, j代表原始红外稳定器图像;(e1, E1)代表Di, j的灰度范围;(e2, E2)代表$ {\hat D_{i,j}} $的灰度范围;(e3, E3)代表背景段与过渡段之间分段点的坐标;(e4, E4)代表过渡段与目标段之间分段点的坐标。依据获得的坐标进行分段,然后确定每个段的灰度范围,对每个段进行线性变换,将各段的像素进行重新映射,最后合并各段的处理结果,得到其整体增强效果。

    针对预处理好的红外稳定器图像,进行图像分割,划分目标区域和背景区域,方便后续图像特征提取[12]。红外稳定器图像分割流程如下:

    步骤1:输入预处理好的红外稳定器图像;

    步骤2:从图像中找出像素最大的点,将其作为种子点,记为O

    步骤3:按照O邻域像素灰度值与种子点O灰度值的差值小于某一阈值的原则进行区域生长;

    步骤4:选出区域生长面积最大的区域,记为M

    步骤5:确定M的4个方向的极值位置信息,记为Z1Z2Z3Z4

    步骤6:将Z1Z2Z3Z4连接,确定包含目标的区域,记为U

    步骤7:U区域内仍存在小部分背景干扰信息,因此针对U,需要进一步进行精细分割;

    步骤8:依据目标检测器G和背景检测器$ \hat G $计算U内目标、背景均值。计算公式如下:

    $$ \bar R = \frac{{\sum\limits_{i,j \in U}^m {{G_{i.j}}} }}{m} $$ (6)
    $$ \bar R' = \frac{{\sum\limits_{i,j \in U}^n {{{\hat G}_{i.j}}} }}{n} $$ (7)

    式中:$ \bar R $代表目标均值;$ \bar R' $代表背景均值;Gi, j代表目标检测器G检测出来的像素值;$ {\hat G_{i.j}} $代表背景检测器$ \hat G $检测出来的像素值;m代表目标检测器G检测出来的像素数量;n代表背景检测器$ \hat G $检测出来的像素数量。

    步骤9:依据下述规则实现对红外稳定器图像像素的分类。

    $$ \left\{ \begin{gathered} {u_{i,j}} \in Q,\left| {\bar R - {u_{i,j}}} \right| \lt \left| {\bar R' - {u_{i,j}}} \right| \hfill \\ {u_{i,j}} \in \hat Q,\left| {\bar R - {u_{i,j}}} \right| \geqslant \left| {\bar R' - {u_{i,j}}} \right| \hfill \\ \end{gathered} \right. $$ (8)

    式中:ui, j代表U区域内(i, j)处的像素值;Q代表目标区域;$ \hat Q $代表背景区域。

    经过上述过程,完成红外稳定器目标图像分割。

    基于分割出来的红外稳定器目标图像,提取两类特征作为最后图像识别模型的输入,在这里通过直方图计算-阶统计特征[13]。首先计算红外稳定器目标图像的直方图。基于直方图提取其特征,具体如下:

    灰度最大值:

    $$ {\phi _1} = \max \sum\limits_{k = 1}^H {{N_k}{V_k}} $$ (9)

    峰度系数:

    $$ {\phi _2} = \frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^4}{V_k}} }}{{{\alpha ^4}{\beta _x}{\beta _y}}} $$ (10)

    熵:

    $$ {\phi _3} = - \frac{{\sum\limits_{k = 1}^H {{N_k}{{\log }_2}\left( {{N_k}} \right)} }}{{{\beta _x}{\beta _y}}} $$ (11)

    偏度:

    $$ {\phi _4} = \frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^3}{V_k}} }}{{{\alpha ^3}{\beta _x}{\beta _y}}} - 3 $$ (12)

    标准差:

    $$ {\phi _5} = \sqrt {\frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^2}{V_k}} }}{{{\beta _x}{\beta _y}}}} $$ (13)

    式中:Nk代表图像中灰度级别为k的像素数量;Vk代表灰度级别为k的柱状图;H代表图像的灰度等级;α代表图像灰度方差;$ \bar \phi $代表图像灰度平均值。

    基于上述5个公式,完成红外稳定器图像5个特征参数的提取。

    基于上述提取的红外稳定器图像5个特征参数,本节先是确定稳定器热状态,然后针对状态确定具体的可靠性等[14]

    1)稳定器热状态确定

    以5个特征参数为基础,构建分类器,其形式如下:

    $$ ψ=v_{1}\mathit{λ}_{1}+v_{2}\mathit{λ}_{2}+v_{3}\mathit{λ}_{3}+v_{4}\mathit{λ}_{4}+v_{5}\mathit{λ}_{5}-δ$$ (14)

    式中:ψ代表分类器判别数值;δ代表常数;v1v2v3v4v5代表红外稳定器图像5个特征的判别函数系数,其取值分别为0.214,0.154,0.352,0.157,0.221;λ1λ2λ3λ4λ5分别代表灰度最大值、峰度系数、熵、偏度以及标准差的特征归一化指数,计算公式如下:

    $$ {\lambda _i} = \frac{{{\phi _i} - \min \phi }}{{\max \phi - \min \phi }} \text{,} i = 1,2,3,4,5 $$ (15)

    式中:φi代表第i类特征的原始参数;minφ、maxφ代表特征的最小值和最大值。

    输入正常和异常训练样本到分类器,确定两种状态(正常和异常)分类的中心,记为ψ1ψ2。由此计算正常和异常类型的间隔点,计算公式如下:

    $$ \mu = \frac{{{\psi _1} + {\psi _2}}}{2} $$ (16)

    式中:μ代表稳定器正常和异常类型的间隔点。

    输入测试样本到分类器当中,得出分类器判别数值ψ。当ψμ,认为稳定器处在正常状态;当ψμ,认为稳定器处在异常状态[15]

    2)可靠性等级确定

    通过上述研究确定了稳定器的目标区域所处的状态,但是异常状态的可靠性等级还需要进一步确定,这里需要通过相对温差判断法确定可靠性等级[16]。首先确定红外稳定器图像比色条的最高温度值和最低温度值,记为TmaxTmin,以及TmaxTmin在图中对应的灰度值,记为ηmaxηmin。将TmaxTminηmaxηmin代入到下述方程,求得参数σϑ

    $$ \left\{ \begin{gathered} {T_{\max }} = \sigma {\eta _{\max }} + \vartheta \hfill \\ {T_{\min }} = \sigma {\eta _{\min }} + \vartheta \hfill \\ \end{gathered} \right. $$ (17)

    由此得到图像中目标的温度值计算公式,即:

    $$ T=0.214η+1.154$$ (18)

    然后根据T,计算相对温差ΔT

    $$ \Delta T = \frac{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} - \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{T} }}{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} - \tilde T}} \cdot 100\% $$ (19)

    式中:$ \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} $代表红外稳定器图像中发热点的温度;$ \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{T} $代表红外稳定器图像中正常相对应点的温度;$ \tilde T $代表环境参照体的温度。

    根据ΔT,确定稳定器的异常状态可靠性等级,具体如下:

    一级:可靠等级较低,ΔT≥30%;

    二级:可靠等级低,ΔT≥80%;

    三级:可靠等级非常低,ΔT≥90%;

    基于上述两个步骤的研究,实现中低压电网电力稳定器高温运行可靠性图像识别。

    实验测试所需要的训练样本来自电力系统数据库,根据稳定器组成结构,将其主要分为7个训练样本,结果如图 2所示。

    图  2  训练样本
    Figure  2.  The training sample

    测试样本则来自某一区域某一段中低压电网上5个稳定器的现场采集图像,共采集图像35幅,其中部分如图 3所示。

    图  3  部分红外稳定器图像
    Figure  3.  Part of the infrared stabilizer image

    针对上述红外稳定器图像进行三步预处理,提高图像质量。

    针对红外稳定器图像样本进行分割,确定目标区域,并提取直方图-阶统计特征,其中部分结果如表 1所示。

    表  1  红外稳定器图像特征
    Table  1.  Infrared stabilizer image features
    Sample Grayscale maximum Kurtosis coefficient Entropy Skewness Standard deviation
    1 1.28 8.56 0.21 2.58 10.55
    2 2.45 8.45 0.23 3.52 10.82
    3 2.12 7.45 0.47 1.48 14.55
    4 2.89 9.54 0.85 1.98 10.23
    5 3.54 8.12 0.42 2.89 8.55
    6 4.22 7.26 0.12 2.41 13.62
    7 3.46 6.54 1.48 2.19 14.20
    8 0.65 5.64 1.85 2.58 12.32
    9 0.89 8.65 0.65 3.55 18.55
    10 4.12 7.12 0.71 2.14 17.32
    11 1.32 7.02 1.25 8.42 14.22
    12 2.65 4.22 1.20 1.48 10.25
    13 3.56 3.65 1.85 2.54 8.42
    14 2.64 5.88 0.55 4.22 9.55
    15 2.65 7.52 0.51 3.55 10.21
    16 2.10 6.55 0.14 2.78 7.45
    17 3.84 4.12 0.16 3.89 6.89
    18 3.52 1.25 0.82 4.78 7.52
    19 2.27 1.20 0.45 8.45 10.95
    20 2.88 5.54 0.47 2.12 11.14
    下载: 导出CSV 
    | 显示表格

    利用训练样本,确定两种状态(正常和异常)分类的中心,然后根据公式(16)计算出的正常和异常类型的间隔点为0.20。由此判断测试样本中存在异常的稳定器,结果如图 4所示。

    图  4  稳定器热状态判断结果
    Figure  4.  Thermal state determination results of the stabilizer

    图 4中可以看出,只有两个稳定器处在异常状态,具体为稳定器2中组成部分3异常,稳定器5中组成部分1异常。

    针对这两个稳定器2中组成部分3图像,稳定器5中组成部分1图像,计算相对温差,确定可靠性等级,结果如图 5所示。

    图  5  可靠性确定结果
    Figure  5.  Reliability determination results

    图 5中可以看出,稳定器2组成部分3相对温差为82.32%,对应可靠等级为2级,可靠性低;稳定器5组成部分1相对温差为91.35%,对应可靠等级为3级,可靠性非常低。由此说明稳定器2和稳定器3都亟待进行维护。

    选取文献[3]方法、文献[4]方法作为对比方法,开展对比实验,进行中低压电网电力稳定器高温运行可靠性图像识别实验,获得对比结果如表 2所示。

    表  2  对比结果
    Table  2.  Comparison of the results
    Serial Number Recognition accuracy of the proposed method/% The recognition accuracy of the method in reference [3]/% The recognition accuracy of the method in reference [4]/%
    1 95.3 84.3 79.6
    2 94.6 84.9 81.2
    3 96.2 82.3 83.4
    4 93.8 81.7 81.6
    5 96.7 82.5 84.9
    6 95.2 83.5 81.8.
    7 95.4 84.9 79.4
    8 95.6 82.3 79.8
    9 94.3 81.5 80.6
    10 92.3 84.5 80.7
    下载: 导出CSV 
    | 显示表格

    表 2所示,采用所提方法进行可靠性图像识别时,其识别准确率达到92.3%以上,而采用对比方法,其识别准确率均低于85.5%,故采用所提方法,应用性能更佳,具有更大的应用价值。

    综上所述,稳定器的正常运行关系到电网运输电力的质量,能够有效稳定电压,避免巨大波动。为实时了解稳定器运行状态,研究一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。该技术以采集红外成像图像为基础,经过多个步骤处理和分析,确定稳定器状态并判断可靠性等级。最后通过实验测试,证明了所研究技术的有效性。

  • 图  1   第一组待融合图像

    Figure  1.   The first group of images to be fused

    图  2   第二组待融合图像

    Figure  2.   The second group of images to be fused

    图  3   第一组图像对比测试结果

    Figure  3.   Comparison test results of the first group of images

    图  4   第二组图像对比测试结果

    Figure  4.   Comparison test results of the second group of images

    表  1   第一组图像融合数据

    Table  1   The first group of image fusion data

    Parameters Fusion algorithm
    Wavelet fusion algorithm Weighted average algorithm IHS transform algorithm Algorithm in this
    paper
    Standard deviation 33.4522 24.9562 25.8361 40.2675
    Information entropy 6.7911 6.3652 6.4102 7.5621
    Average gradient 5.3961 5.3241 5.4103 6.1258
    下载: 导出CSV

    表  2   第二组图像融合数据

    Table  2   The second group of image fusion data

    Parameters Fusion algorithm
    Wavelet fusion algorithm Weighted average algorithm IHS transform algorithm Algorithm in this
    paper
    Standard deviation 48.2561 29.6521 30.2478 61.1598
    Information entropy 7.2014 6.4567 6.5125 7.6512
    Average gradient 7.4851 6.9654 6.8512 7.8623
    下载: 导出CSV
  • [1]

    MA J, MA Y, LI C. Infrared and visible image fusion methods and applications: a survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004

    [2]

    LIU Y, CHEN X, Ward R K, et al. Medical image fusion via convolutional sparsity based morphological component analysis[J]. IEEE Signal Processing Letters, 2019, 26(3): 485-489. DOI: 10.1109/LSP.2019.2895749

    [3] 蔡铠利, 石振刚. 红外图像与可见光图像融合算法研究[J]. 沈阳理工大学学报, 2016(3): 17-22. DOI: 10.3969/j.issn.1003-1251.2016.03.004

    CAI Kaili, SHI Zhengang. Research on Image Fusion Algorithm of Infrared and Visible Image[J]. Journal of Shenyang Ligong University, 2016(3): 17-22. DOI: 10.3969/j.issn.1003-1251.2016.03.004

    [4] 郝志成, 吴川, 杨航, 等. 基于双边纹理滤波的图像细节增强方法[J]. 中国光学, 2016, 9(4): 423-431. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGGA201604005.htm

    HAO Zhicheng, WU Chuan, YANG Hang, et al. Image detail enhancement method based on multi-scale bilateral texture filter[J]. Chinese Optics, 2016, 9(4): 423-431. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGGA201604005.htm

    [5]

    FU Z, WANG X, LI X, et al. Infrared and visible image fusion based on visual saliency and NSCT[J]. Journal of University of Electronic Science & Technology of China, 2017, 46(2): 357-362.

    [6]

    DING S, ZHAO X, HUI X, et al. NSCT-PCNN image fusion based on image gradient motivation[J]. IET Computer Vision, 2018, 12(4): 377-383. DOI: 10.1049/iet-cvi.2017.0285

    [7]

    KOU F, LI Z, WEN C, et al. Edge-Preserving smoothing pyramid based multi-scale exposure fusion[J]. Journal of Visual Communication & Image Representation, 2018, 53: 235-244.

    [8]

    ZHOU Z, BO W, SUN L, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 15-26. DOI: 10.1016/j.inffus.2015.11.003

    [9]

    YANG B, LUO J, GUO L, et al. Simultaneous image fusion and demosaicing via compressive sensing[J]. Information Processing Letters, 2016, 116(7): 447-454. DOI: 10.1016/j.ipl.2016.03.001

    [10]

    ZHANG Y, BAI X, WANG T. Boundary finding based multi-focus image fusion through multi-scale morphological focus-measure[J]. Information Fusion, 2017, 35: 81-101. DOI: 10.1016/j.inffus.2016.09.006

    [11]

    MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.

    [12]

    YANG Y, QUE Y, HUANG S, et al. Multiple visual features measurement with gradient domain guided filtering for multisensor image fusion[J]. IEEE Transactions on Instrumentation & Measurement, 2017, 66(4): 691-703.

    [13]

    ZHANG L, ZENG G, WEI J. Adaptive region-segmentation multi-focus image fusion based on differential evolution[J]. International Journal of Pattern Recognition & Artificial Intelligence, 2018, 33(3): 32.

    [14]

    YAN X, QIN HL, LI J, et al. Infrared and visible image fusion using multiscale directional nonlocal means filter[J]. Applied Optics, 2015, 54(13): 4299-4308. DOI: 10.1364/AO.54.004299

    [15]

    CUI G M, FENG H J, XU Z H, et al. Detail preserved fusion of visible and infrared images using regional saliency extraction and multi-scale image decomposition[J]. Optics Communications, 2015, 341: 199-209. DOI: 10.1016/j.optcom.2014.12.032

  • 期刊类型引用(0)

    其他类型引用(2)

图(4)  /  表(2)
计量
  • 文章访问数:  147
  • HTML全文浏览量:  76
  • PDF下载量:  41
  • 被引次数: 2
出版历程
  • 收稿日期:  2021-08-28
  • 修回日期:  2021-11-22
  • 刊出日期:  2022-05-19

目录

/

返回文章
返回