基于PUCS与DTCWT的红外与弱可见光图像融合

姜迈, 沙贵君, 李宁

姜迈, 沙贵君, 李宁. 基于PUCS与DTCWT的红外与弱可见光图像融合[J]. 红外技术, 2022, 44(7): 716-725.
引用本文: 姜迈, 沙贵君, 李宁. 基于PUCS与DTCWT的红外与弱可见光图像融合[J]. 红外技术, 2022, 44(7): 716-725.
JIANG Mai, SHA Guijun, LI Ning. Infrared and Low-level Visible Light Images Fusion Based on Perception Unified Color Space and Dual Tree Complex Wavelet Transform[J]. Infrared Technology , 2022, 44(7): 716-725.
Citation: JIANG Mai, SHA Guijun, LI Ning. Infrared and Low-level Visible Light Images Fusion Based on Perception Unified Color Space and Dual Tree Complex Wavelet Transform[J]. Infrared Technology , 2022, 44(7): 716-725.

基于PUCS与DTCWT的红外与弱可见光图像融合

基金项目: 

公安部技术研究计划 2020JSYJC26

公安部科技强警基础工作专项项目 2018GABJC08

中国科学院海洋信息技术创新研究院前沿基础研究项目 QYJC201913

公安理论及软科学研究计划 2019LLYJXJXY055

公安理论及软科学研究计划 2019LLYJXJXY057

详细信息
    作者简介:

    姜迈(1982-),男,辽宁人,博士,讲师,主要研究方向为图像处理与模式识别,三维场景重建等。E-mail: tawan_83@163.com

  • 中图分类号: TP391.41

Infrared and Low-level Visible Light Images Fusion Based on Perception Unified Color Space and Dual Tree Complex Wavelet Transform

  • 摘要: 针对红外与弱可见光图像传统融合算法在结果图像中目标不突出、整体对比度降低、边缘及纹理细节不清晰、缺失等问题,本文提出一种基于感知一致性空间(Perception Unified Color Space,PUCS)和双树复小波变换(Dual Tree Complex Wavelet Transform,DTCWT)的融合算法。首先,将红外与弱可见光图像的亮度分量由RGB空间分别转至感知一致性空间得到新的亮度分量以备后续变换处理;接着,将源图像利用DTCWT进行多尺度分解,分别获取各自的低频分量与高频分量;然后,根据不同频带系数特点,提出一种基于区域能量自适应加权的规则对低频子带分量进行融合,采用一种基于拉普拉斯能量和与梯度值向量的规则对不同尺度、方向下高频子带分量进行融合;最后,对融合后的高、低频子带分量进行DTCWT逆变换重构图像,再将其转回至RGB空间以得到最终结果。在不同场景下将本文算法与3种高效融合算法进行对比评价,实验结果表明,本文算法不但在主观视觉上具有显著的目标特征、清晰的背景纹理及边缘细节、整体对比度适宜,而且在8项客观评价指标上也取得了较好的效果。
    Abstract: To solve problems in traditional image fusion, such as dim targets, low contrast, and loss of edge and textural details in fusion results, a new fusion approach for infrared and low-level visible light image fusion based on perception unified color space (PUCS) and dual tree complex wavelet transform (DTCWT) is proposed. First, the two-source image intensity component is separately transformed from RGB space into PUCS to obtain a new intensity component for further processing. Then, the infrared and low-level visible light images are decomposed using DTCWT to obtain the low- and high-frequency components, respectively. Subsequently, at the fusion stage, the region energy adaptive weighted method is adopted to fuse the low-frequency sub-bands, and the high-frequency rule uses the sum modified Laplacian and gradient value vector for different scale and directional sub-bands fusions. Finally, the fusion image is obtained by applying inverse DTCWT on the sub-bands and returned to RGB space. The proposed algorithm was compared with three efficient fusion methods in different scenarios. The experimental results show that this approach can achieve prominent target characteristics, clear background texture and edge details, and suitable contrast in subjective evaluations as well as advantages in eight objective indicator evaluations.
  • 太阳光中包含各种波段的光,但是地球大气层中的臭氧层会对220~280 nm波段的紫外光进行吸收,因此该波段的光很难到达地球表面,该波段又被称为“日盲”紫外波段[1]。我们通过220~280 nm紫外光的日盲特性对处于该波段的目标物进行检测成像,能够有效地排除掉阳光对其造成的影响。而高压输电线路由于其自身的故障会在大气中产生电晕,电晕放电会放射出波段为220~280 nm的紫外光[2-6]。传统的电晕探测技术有红外热探测和超声波探测,日盲紫外电晕探测相比于这两种技术有极大的改进:和红外技术相比,在早期就能检测到高压输电线上的电晕放电现象,并且不受周边环境干扰;和超声波技术相比,能够探测的距离长,并且能够检测出电晕放电产生的位置。如今,国内的紫外检测技术飞速发展,以国产碲铯阴极紫外像增强器为核心的紫外成像仪能够对电力设备故障进行实时的检测[7-9]

    在日盲紫外电晕成像探测过程中,一般是根据显示器上所显示的日盲紫外图像来主观判断电晕放电的程度,这样会带来很大的误差,所以需要通过具体的算法对日盲紫外电晕放电进行量化分析。考虑到日盲紫外电晕信号十分微弱,达到了单光子水平,普通的量化分析方法不能满足要求,因此需要设计合理的光子计数算法来对日盲紫外信号进行量化分析。

    图 1是单光子探测的原理图。首先,光信号通过光学镜头进行光学聚焦;然后,前端光电探测器将光信号转化成电信号;其次,将电信号输入至信号处理模块进行处理;最后,后端读出电路模块将处理之后的信号进行输出。其中,因为日盲紫外信号十分微弱,传统的固体探测器件难以达到要求,因此一般会采用真空器件对信号进行光电转换和电子倍增。与此同时,当需要对目标信号强弱进行分析并对其进行成像时,采用像增强器作为光电转换和成像器件[10]

    图  1  单光子探测原理框图
    Figure  1.  Block diagram of single photon detection

    当日盲紫外光子信号低于3×10-15 W/cm2时,光电转换器就会产生离散脉冲信号,合适的CMOS传感器就能探测到光子信号,所以能够统计日盲紫外信号光子的数量来实现对目标源信号的定量化分析。光子的能量公式为:

    $$ E = h\frac{c}{\lambda } $$ (1)

    式中:h为普朗克常数;c为真空中的光速;λ为光的波长。其中日盲紫外波段为200~280 nm[3],通过计算得出一个日盲紫外光子的能量为7.1×10-19~1×10-18 J。

    日盲紫外光光功率P表示为:

    $$ P=N×E $$ (2)

    式中:N表示光子数;E表示单光子能量,所以单位时间内通过的光能量表示光流强度。

    目标源信号的光功率可以通过统计一个截面上的光子数量来计算得到[4-7]。由于图像传感器靶面尺寸约为1.56 cm2,通过对单位时间内探测到的紫外图像上出现的光斑进行计数统计,就能计算得出一帧图像的光子数以及日盲紫外信号源的光功率。

    本文所设计的日盲紫外成像系统原理框图如图 2所示,成像系统主要由紫外ICMOS模组、可见光探测器、ARM+FPGA嵌入式处理系统组成。其中,紫外ICMOS模组用来采集日盲紫外微弱信号,并经过模数转换将数字图像信号输入嵌入式平台中;可见光探测器采集可见光图像为日盲紫外信号提供位置信息;ARM+FPGA嵌入式处理系统通过采集紫外数字图像信息,完成图像处理和光子计数算法,并将处理后的图像输出显示。

    图  2  日盲紫外成像系统整体设计框图
    Figure  2.  Block diagram of overall design of solar blind ultraviolet imaging system

    图 3是所设计的日盲紫外成像系统整机实物图,尺寸(长×宽×高)为244 mm×135 mm×96 mm。其中1为相机窗口,2为LCD液晶屏,3为按键控制面板,4为电源充电口和TF卡槽,5为腕带。

    图  3  日盲紫外成像系统整机实物图
    Figure  3.  The physical picture of the solar blind UV imaging system

    传统的光子计数算法通常为连通域标记光子计数算法,其算法主要思路为:假设单光子经过像增强器倍增以后,在荧光屏上所显示的每一个光斑都未重合。那么每一个光斑就对应了一个光电子,因此只需要对一帧图像中光斑出现的数量,就可以得出一帧图像中日盲紫外光子数。在连通域标记算法中,对经过图像预处理后的紫外图像进行二值化处理,得到一幅二值化图像。每个由灰度255组成的连通域表示为一个光子事件,图 4为连通域标记算法的示意图。

    图  4  连通域标记算法说明
    Figure  4.  Connected domain labeling algorithm description

    然后,对所采集到的一帧紫外图像进行连通域算法仿真分析,图 5为所采集到的日盲紫外图像和二值化后的图像。

    图  5  紫外图像二值化
    Figure  5.  UV image binary processing

    通过对图进行连通域标记光子计数算法仿真,可以得出共有12个光子。通过分析二值化后的图像可知,连通域标记算法将光斑较大和较小的区域都默认为一个光子事件进行统计,这样显然影响了光子计数的准确度,因此需要对此光子计数算法进行改进。

    弥散圆斑算法是一种从三维空间上统计光子数的方法,由于所设计的高帧频算法,可以使得光斑的变化在时间域上被捕获,因此本文在此基础上添加了时间因素,弥补光斑出现时间的随机性,找出四维空间中的最大点,约束条件如式(3):

    $$ \left\{ \begin{gathered} {f_x}'(x,y,z) \leqslant 0 \hfill \\ {f_y}'(x,y,z) \leqslant 0 \hfill \\ {f_t}'(x,y,z) \leqslant 0 \hfill \\ \end{gathered} \right. $$ (3)

    由于加入了时间的约束,所以只有找出一段时间内几帧图像同一位置光斑的极大值点才能准确计算光子数。本文采用的CMOS传感器图像输出频率为3 ms每帧,而荧光屏的余晖时间为6 ms,即光斑在荧光屏上的起伏时间为6 ms,因此我们通过连续采样得到3帧图像就能得到光斑的变化范围,如图 6所示,其中abc表示图像中光斑的灰度值。

    图  6  单个光斑脉冲连续采样图
    Figure  6.  Continuous sampling of single spot pulse

    图 6所示,中间一帧图像中b灰度值最大,可以将b记作一个光子数,因此只要中间帧图像中光斑的灰度值大于前后帧图像光斑的灰度值,就能将其记为一个光子数。

    这样就能统计出一帧图像的光子数[10]

    $$ n = \sum\limits_{k = 1}^f {\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {Y(i,j,k)} } } $$ (4)

    式中:f为日盲紫外成像探测器的帧频;k为第k帧图像;(i, j)为二维空间坐标;Y(i, j, k)为四维空间中的极大值点。由于日盲紫外成像探测器能达到300帧/s的帧频,两帧之间的变化时间较小,因此Y(i, j, k)又能满足:

    $$ B(i,j,k)≥B(i±i′,j±j′,k±k′) $$ (5)

    式中:B(i, j, k)为第k帧(i, j)点的灰度值。由上式可见,极大值点Y(i, j, k)的约束条件为:B(i, j)在i′×j′矩阵像素中具有最大的灰度值,且在前后k′帧的同一位置的灰度值也是最大的。根据日盲紫外成像探测器的输出帧频,这里k′=1,同时i′×j′矩阵可设定为3×3矩阵或5×5矩阵。

    首先,本文用日盲紫外成像探测器采集图像,然后运用Matlab软件分别对两种算法进行仿真,比较仿真结果来判断时间相关的光子计数算法能否提高计数精度。

    首先选用260 nm波段的紫外光源,然后日盲紫外成像探测器的增益电压调节为2.5 V,调节紫外光源光功率密度,从3×10-19 W/cm2每次往上增加一个数量级,采集3组不同光强的实验图像,每组实验记录3幅图像,如图 7所示。

    图  7  日盲紫外三组实验图像
    Figure  7.  Three sets of experimental images of solar blind ultraviolet

    运用MATLAB软件对采集的图像仿真,得出的光子数如表 1所示。表 1中的两种算法为连通域计数算法和基于时间相关算法。

    表  1  两种算法光子计数统计表
    Table  1.  Photon counting statistic table of two algorithm
    Connected domain labeling algorithm Dispersion circular algorithm
    Group 1 7 6
    Group 2 78 78
    Group 3 88 291
    下载: 导出CSV 
    | 显示表格

    结果显示,当信号源很弱时,光子就会分散分布,因此两种算法的计数结果比较相近。在增强紫外光源的光功率后,光斑会重叠,并且连通域标记光子计数算法得出的光子数量没有太大变化,而本文所设计的算法随着信号的增强,计数值不断增加,由此可知,弥散圆斑算法相对于连通域计数算法更加精确,可对日盲紫外单光子进行准确统计。

    通过对两种算法的仿真分析可知,本文所设计的光子计数算法更具准确性,但由于所设计成像系统的资源和速度限制,我们将日盲紫外图像的14 bit数据压缩成8 bit数据进行处理,因此会使得计数精度上有所偏差,所以通过对紫外光源的实验来验证硬件实现的效果。

    实验采用氘灯作为日盲紫外目标源进行光子计数实验测试,紫外ICMOS模组的增益电压保持不变,进行了如下3组实验:

    第一组,关闭日盲紫外信号源,实验结果如图 8所示。

    图  8  第一组实验图像
    Figure  8.  The first set of experimental images

    通过采集3帧图像,所计算的光子数一直为0,说明所设计的成像系统暗计数良好。

    第二组,打开氘灯光源,并调节光源强度到最弱,采集到的图像如图 9所示。

    图  9  第二组实验图像
    Figure  9.  The second set of experimental images

    第三组,输出光源光功率密度加到1×10-18 W/cm2,采集到的图像如图 10所示。

    图  10  第三组实验图像
    Figure  10.  The third set of experimental images

    然后,我们利用Matlab对每组连续的3帧图像进行所设计的光子计数算法仿真,仿真结果与FPGA计算的结果如表 2所示。

    表  2  四组光子计数实验结果
    Table  2.  Results of four groups of photon counting experiments
    Group1 Group 2 Group 3
    FPGA output result 0 24 141
    Matlab simulation result 0 23 149
    下载: 导出CSV 
    | 显示表格

    通过表 2可知,硬件实验的光子计数算法与仿真结果相近,证明了所设计的基于时间域的弥散圆斑光子计数算法在成像系统中可以硬件实现,并且效果良好。

    日盲紫外电晕探测是近年来一种新型的电晕探测方式,但是紫外图像单靠人眼无法精确地判断电晕信号的强弱,因此本文研究了日盲紫外光子计数算法,通过对连通域标记算法和弥散圆斑算法进行分析提出了基于时间相关算法,然后使用Matlab对两种算法进行了实验仿真,结果显示基于时间相关算法对光子计数更加准确,最后,通过实验验证所设计的算法可以在成像系统中的FPGA硬件平台上实现,并且实现的效果良好,能够用于紫外成像仪中对信号进行量化分析。

  • 图  1   二层分解下的DTCWT

    Figure  1.   Two levels of DTCWT decomposition

    图  2   四层分解下的DTCWT基函数冲击响应

    Figure  2.   DTCWT Basis function real and imaginary part impact response under four-levels decomposition

    图  3   基于DTCWT分解的红外与弱可见光图像

    Figure  3.   Infrared and low-level visible light images based on DTCWT decomposition

    图  4   基于感知一致性颜色空间与DTCWT的图像融合框架

    Figure  4.   Image fusion framework based on perception uniformity color space and DTCWT

    图  5   不同场景下的源红外与弱可见光图像

    Figure  5.   Original infrared and low-level visible light images under different scenes

    图  6   不同场景下各种算法的融合结果

    Figure  6.   Comparison of experimental results of different fusion algorithms under different scenes

    图  7   不同场景下融合结果客观评价指标

    Figure  7.   Objective evaluation indicators of fusion results under different scenes

    表  1   Q-shift滤波器组

    Table  1   Q-shift filter banks

    Tree A Tree B
    Real part filters Imaginary part filters Real part filters Imaginary part filters
    Lo1 Hi1 Lo1 Hi1 Loq Hiq Loq Hiq
    -0.0023 0.0024 0.0024 0.0023 0.0024 0.0023 -0.0023 0.0024
    0.0012 -0.0013 0.0013 0.0012 0.0013 0.0012 0.0012 -0.0013
    -0.0118 -0.0026 -0.0026 0.0118 -0.0026 0.0118 -0.0118 -0.0026
    0.0013 0.0066 -0.0066 0.0013 -0.0066 0.0013 0.0013 0.0066
    0.0444 0.0315 0.0315 -0.0444 0.0315 -0.0444 0.0444 0.0315
    -0.0533 -0.0182 0.0182 -0.0533 0.0182 -0.0533 -0.0533 -0.0182
    -0.1133 -0.1202 -0.1202 0.1133 -0.1202 0.1133 -0.1133 -0.1202
    0.2809 -0.0246 0.0246 0.2809 0.0246 0.2809 0.2809 -0.0246
    0.7528 0.5658 0.5658 -0.7528 0.5658 -0.7528 0.7528 0.5658
    0.5658 -0.7528 0.7528 0.5658 0.7528 0.5658 0.5658 -0.7528
    0.0246 0.2809 0.2809 -0.0246 0.2809 -0.0246 0.0246 0.2809
    -0.1202 0.1133 -0.1133 -0.1202 -0.1133 -0.1202 -0.1202 0.1133
    0.0182 -0.0533 -0.0533 -0.0182 -0.0533 -0.0182 0.0182 -0.0533
    0.0315 -0.0444 0.0444 0.0315 0.0444 0.0315 0.0315 -0.0444
    -0.0066 0.0013 0.0013 0.0066 0.0013 0.0066 -0.0066 0.00134
    -0.0026 0.0118 -0.0118 -0.0026 -0.0118 -0.0026 -0.0026 0.0118
    0.0013 0.0012 0.0012 -0.0013 0.0012 -0.0013 0.0013 0.0012
    下载: 导出CSV

    表  2   融合质量客观指标总体评价

    Table  2   Overall objective evaluation indicators of different fusion methods

    Evaluation
    indicators
    Fusion algorithms
    Ours WLS IFE
    VIP
    MISREG
    RMSE 1 2 4 3
    PFE 1 2 4 3
    MAE 2 1 4 3
    CORR 1 2 4 3
    SNR 1 2 4 3
    PSNR 1 2 4 3
    MI 1 4 2 3
    SSIM 1 2 4 3
    Objective general evaluation 1 2 4 3
    Subjective general evaluation 1 2 3 4
    Execution time(s) 2.1621 6.213 0.527 8.267
    下载: 导出CSV
  • [1] 苏金凤, 张贵仓, 汪凯. 结合RPCA和NSCT的红外与可见光图像的压缩融合[J]. 激光与光电子学进展, 2020, 57(4): 04105. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    SU Jinfeng, ZHANG Guicang, WANG Kai. Infrared and visible image compressed fusion combining RPCA and NSCT[J]. Laser & Optoelectronics Progress, 2020, 57(4): 04105. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    [2] 刘明君, 董增寿. 基于多特征的红外与可见光图像融合[J]. 激光杂志, 2019, 40(10): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ201910017.htm

    LIU Mingjun, DONG Zengshou. Infrared and visible light image fusion based on multiple features[J]. Laser Journal, 2019, 40(10): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ201910017.htm

    [3] 袁金楼, 吴谨, 刘劲. 基于NSCT与DWT的压缩感知图像融合[J]. 红外技术, 2015, 37(11): 176-182. http://hwjs.nvir.cn/article/id/hwjs201511011

    YUAN Jinlou, WU Jin, LIU Jin. Image fusion based on compressed sensing of NSCT and DWT[J]. Infrared Technology, 2015, 37(11): 176-182. http://hwjs.nvir.cn/article/id/hwjs201511011

    [4] 邓秋菊, 王宁. 非下采样轮廓波变换的红外与可见光图像融合[J]. 激光杂志, 2020, 41(4): 92-95. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ202004018.htm

    DENG Qiuju, WANG Ning. Infrared and visible image fusion of non-down sampling wheel corridor wave transform[J]. Laser Journal, 2020, 41(4): 92-95. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ202004018.htm

    [5] 肖中杰. 基于NSCT红外与可见光融合算法优化研究[J]. 红外技术, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010

    XIAO Zhongjie. Improved infrared and visible light image fusion algorithm based on NSCT[J]. Infrared Technology, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010

    [6] 杨晟炜, 张志华, 孔玲君, 等. 基于NSST与IHS的红外与彩色可见光图像融合[J]. 包装工程, 2019, 40(11): 194-201. https://www.cnki.com.cn/Article/CJFDTOTAL-BZGC201911030.htm

    YANG Shengwei, ZHANG Zhihua, KONG Lingjun, et al. Fusion of infrared and color visible images based on NSST and IHS[J]. Packaging Engineering, 2019, 40(11): 194-201. https://www.cnki.com.cn/Article/CJFDTOTAL-BZGC201911030.htm

    [7] 王志社, 杨风暴, 彭智浩. 基于NSST和稀疏表示的多源异类图像融合方法[J]. 红外技术, 2015, 37(3): 210-217. http://hwjs.nvir.cn/article/id/hwjs201503008

    WANG Zhishe, YANG Fengbao, PENG Zhihao. Mulit-source heterogeneous image fusion based on NSST and sparse presentation[J]. Infrared Technology, 2015, 37(3): 210-217. http://hwjs.nvir.cn/article/id/hwjs201503008

    [8] 叶华, 朱明旱, 王日兴. 红外和可见光图像互补融合的运动目标检测方法[J]. 红外技术, 2015, 37(8): 648-654. http://hwjs.nvir.cn/article/id/hwjs201508004

    YE Hua, ZHU Minghan, WANG Rixing. Fusion of complementary information from infrared and visual images for moving object detection[J]. Infrared Technology, 2015, 37(8): 648-654. http://hwjs.nvir.cn/article/id/hwjs201508004

    [9] 赵春晖, 马丽娟, 邵国锋. 采用WA-WBA与改进INSCT的图像融合算法[J]. 电子与信息学报, 2014, 36(2): 304-311. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201402009.htm

    ZHAO Chunhui, MA Lijuan, SHAO Guofeng. An image fusion algorithm based on WA-WBA and improved non-subsampled contourlet transform[J]. Journal of Electronics & Information Technology, 2014, 36(2): 304-311. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201402009.htm

    [10] 杜进楷, 陈世国. 基于双树复小波变换的自适应PCNN图像融合算法[J]. 红外技术, 2018, 40(10): 1002-1007. http://hwjs.nvir.cn/article/id/hwjs201810012

    DU Jinkai, CHEN Shiguo. Adaptive PCNN image fusion algorithm based on double tree complex wavelet transform[J]. Infrared Technology, 2018, 40(10): 1002-1007. http://hwjs.nvir.cn/article/id/hwjs201810012

    [11] 王聪, 钱晨, 孙伟, 等. 基于SCM和CST的红外与可见光图像融合算法[J]. 红外技术, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007

    WANG Cong, QIAN Chen, SUN Wei, et al. Infrared and visible images fusion based on SCM and CST[J]. Infrared Technology, 2016, 38(5): 396-402. http://hwjs.nvir.cn/article/id/hwjs201605007

    [12] 钱小燕, 张天慈, 王帮峰, 等. 局部颜色映射的彩色夜视算法[J]. 中国图象图形学报, 2012, 17(5): 689-693. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201205012.htm

    QIAN Xiaoyan, ZHANG Tianci, WANG Bangfeng, et al. Color night vision algorithm based on local color mapping[J]. Journal of Image and Graphics, 2012, 17(5): 689-693. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201205012.htm

    [13]

    Philipp Urban, Mitchell R. Rosen, ROY S. Berns. Embedding non-euclidean color spaces into euclidean color spaces with minimal isometric disagreement[J]. J. Opt. Soc. Am. A, 2007, 24(6): 1516-1528. DOI: 10.1364/JOSAA.24.001516

    [14]

    Ingmar Lissner, Philipp Urban. Toward a unified color space for perception-based image processing[J]. IEEE Transactions on Image Processing, 2012, 21(3): 1153-1168. DOI: 10.1109/TIP.2011.2163522

    [15]

    Nick Kingsbury. Image processing with complex wavelets[J]. Philosopical Transactions of Royal Society of London A: Mathematical, Physical and Engineering Sciences, 1999, 357(1760): 2543-2560. DOI: 10.1098/rsta.1999.0447

    [16] 朱攀, 刘泽阳, 黄战华. 基于DTCWT和稀疏表示的红外偏振与光强图像融合[J]. 光子学报, 2017, 46(12): 1210002-1-1210002-9. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201712028.htm

    ZHU Pan, LIU Zeyang, HUANG Zhanhua, Infrared polarization and intensity image fusion based on dual-tree complex wavelet transform and space representation[J]. Acta Photonica Sinica, 2017, 46(12): 1210002-1-1210002-9. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201712028.htm

    [17] 沈瑜, 陈小朋, 杨倩. 多方向Laplacian能量和与tetrolet变换的图像融合[J]. 中国图象图形学报, 2020, 25(4): 0721-0731. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202004008.htm

    SHEN Yu, CHEN Xiaopeng, YANG Qian. Image fusion of multidirectional sum modified Laplacian and Tetrolet transform[J]. Journal of Image and Graphics, 2020, 25(4): 0721-0731. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202004008.htm

    [18] 方静, 罗高鹏. 改进快速NSST的热烟羽红外与可见光图像融合[J]. 激光与红外, 2017, 47(7): 914-920. DOI: 10.3969/j.issn.1001-5078.2017.07.024

    FANG Jing, LUO Gaopeng. Infrared and visible images fusion of thermal plume based on rapid non-subsampled shearlet transform[J]. Laser & Infrared, 2017, 47(7): 914-920. DOI: 10.3969/j.issn.1001-5078.2017.07.024

    [19]

    MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.

    [20]

    ZHANG Yu, ZHANG Lijia, BAI Xiangzhi, et al. Infrared and visual Image fusion through infrared feature extraction and visual information preservation[J]. Infrared Physics & Technology, 2017, 83: 227-237.

    [21]

    ZHOU Zhiqiang, LI Sun, WANG Bo. Multi-scale weighted gradient-based fusion for multi-focus image[J]. Information Fusion, 2014, 20: 60-72. DOI: 10.1016/j.inffus.2013.11.005

    [22] 董安勇, 苏斌, 赵文博, 等. 基于卷积稀疏表示的红外与可见光图像融合[J]. 激光与红外, 2018, 48(12): 1547-1553. DOI: 10.3969/j.issn.1001-5078.2018.12.018

    DONG Anyong, SU Bin, ZHAO Wenbo. Infrared and visible image fusion based on convolution sparse representation[J]. Laser & Infrared, 2018, 48(12): 1547-1553. DOI: 10.3969/j.issn.1001-5078.2018.12.018

    [23] 周晨旭, 黄福珍. 基于BLMD和NSDFB算法的红外与可见光图像融合方法[J]. 红外技术, 2019, 41(2): 176-182. http://hwjs.nvir.cn/article/id/hwjs201902012

    ZHOU Chenxu, HUANG Fuzhen. Infrared and visible image fusion based on BLMD and NSDFB[J]. Infrared Technology, 2019, 41(2): 176-182. http://hwjs.nvir.cn/article/id/hwjs201902012

  • 期刊类型引用(1)

    1. 杨晓超,郝慧良. 矿用电缆放电监测系统研究设计. 中国煤炭. 2024(S1): 406-410 . 百度学术

    其他类型引用(1)

图(7)  /  表(2)
计量
  • 文章访问数: 
  • HTML全文浏览量: 
  • PDF下载量: 
  • 被引次数: 2
出版历程
  • 收稿日期:  2021-10-10
  • 修回日期:  2021-11-28
  • 刊出日期:  2022-07-19

目录

/

返回文章
返回