基于双分支卷积神经网络的红外与可见光图像局部融合算法

许云英, 杨瑞, 贺天福, 刘尚为, 范太然, 徐晨晨

许云英, 杨瑞, 贺天福, 刘尚为, 范太然, 徐晨晨. 基于双分支卷积神经网络的红外与可见光图像局部融合算法[J]. 红外技术, 2022, 44(5): 521-528.
引用本文: 许云英, 杨瑞, 贺天福, 刘尚为, 范太然, 徐晨晨. 基于双分支卷积神经网络的红外与可见光图像局部融合算法[J]. 红外技术, 2022, 44(5): 521-528.
XU Yunying, YANG Rui, HE Tianfu, LIU Shangwei, FAN Tairan, XU Chenchen. Local Fusion Algorithm of Infrared and Visible Light Images Based on Double-Branch Convolutional Neural Network[J]. Infrared Technology , 2022, 44(5): 521-528.
Citation: XU Yunying, YANG Rui, HE Tianfu, LIU Shangwei, FAN Tairan, XU Chenchen. Local Fusion Algorithm of Infrared and Visible Light Images Based on Double-Branch Convolutional Neural Network[J]. Infrared Technology , 2022, 44(5): 521-528.

基于双分支卷积神经网络的红外与可见光图像局部融合算法

基金项目: 

江苏海洋大学电子工程学院研究生科研创新项目 DZXS202006

详细信息
    作者简介:

    许云英(1990-),女,硕士研究生,研究方向:图像处理。E-mail:371739272@qq.com

    通讯作者:

    杨瑞(1976-),男,副教授,研究方向:智能信息处理、程序分析及测试等。E-mail:yangrui@jou.edu.cn

  • 中图分类号: TP391.4

Local Fusion Algorithm of Infrared and Visible Light Images Based on Double-Branch Convolutional Neural Network

  • 摘要: 红外图像和可见光图像均存在一定的局限性,依靠单个种类图像无法满足工程实际需求,可通过引入图像融合技术,获取高质量的融合图像。为更好保障输出信息特征的多样性,本文引入一种双分支卷积神经网络实现红外与可见光图像局部融合;在双分支卷积神经网络基础上,同时从红外图像、可见光图像得到跨渠道信息、渠道内信息种特征,增加了融合图像的信息量。采用整数小波变换方法进行图像压缩。建立颜色空间模型时,合理调节t因子的数值,获得理想的融合图像。实验结果表明,与现有方法相比,本方法融合后图像边缘信息得到充分保留,图像细节得到增强,红外与可见光图像融合效果更好。
    Abstract: Both infrared and visible images have certain limitations, and relying on individual types of images cannot meet the practical needs of engineering. Instead, high-quality fused images can be obtained by introducing image fusion techniques. To better guarantee the diversity of the output information features, this study introduces a dual-branch convolutional neural network to achieve local fusion of infrared and visible images. Based on the dual-branch convolutional neural network, red and blue features are obtained from infrared images and visible light images simultaneously, thereby increasing the amount of information in the fusion image. The integer wavelet transform method is used for image compression. When the color-space model is built, the value of the t-factor is adjusted to obtain an ideal fusion image. The experimental results show that the edge information of the image after the fusion of this method is fully preserved, image detail information is enhanced, and fusion effect of infrared and visible images is improved, compared with the existing methods.
  • 超二代像增强器是一种真空光电成像器件[1-2],除具有图像亮度增强功能外,还具有图像传输功能,因此分辨力是最重要的性能指标。超二代像增强器在制作完成后,每支均需进行性能测试,其中就包括分辨力。所测得的数值即为超二代像增强器所能达到的具体指标,称为标称指标。根据相关测试标准[3-4],超二代像增强器分辨力是在最佳工作(输入)照度(约10-2 lx)下测量的,因此所测得的分辨力实际上是超二代像增强器所能达到的最高分辨力,即极限分辨力,而不是超二代像增强器在使用过程中的分辨力。超二代像增强器在使用过程中的分辨力随着照度的变化而变化。因此,如果采用极限分辨力作为参数来估算微光夜视系统在不同照度下的视距时,往往会出现较大的偏差。另外,对于极限分辨力相同的2支超二代像增强器,如果其他性能参数不同,如信噪比(signal-to-noise ratio,SNR)或等效背景照度(equivalent background illumination,EBI)不同,那么其在不同照度下的分辨力也不同。这说明超二代像增强器在不同照度下的分辨力不仅与极限分辨力有关,还与信噪比及等效背景照度有关。目前关于超二代像增强器在不同照度下的分辨力变化规律以及极限分辨力、信噪比及等效背景照度对不同照度下分辨力的影响还未见报道,因此有必要进行研究。

    超二代像增强器分辨力随照度的变化规律可以通过样品实测的方法获得,即在不同输入照度下分别测量超二代像增强器的分辨力,即可获得像增强器分辨力随照度的变化规律。分辨力测量采用传统的测量仪器。该仪器包括光源、滤光片组、分辨力靶板、投影物镜、测量样品(超二代像增强器)以及显微目镜,其结构示意见图 1。测量仪器的光源为卤钨灯,色温为2856 K。滤光片组由不同中性密度(neutral density,ND)的衰减滤光片组成,通过不同的中性密度滤光片组合,可以获得不同的输入照度。

    图  1  分辨力测量仪器示意图
    Figure  1.  Diagram of measuring instrument for resolution

    测量仪器的分划板为USAF-1951(US Air Force-1951)分划板。分划板的每一块靶板由两组相互垂直的分化线组成,而每一组分化线又由3条亮线和暗线组成,并且亮暗的对比度为100%,USAF-1951分划板的图形见图 2。在图 2中的分划板中,每6块靶板组成1组。分划板最外周的右下角为0组分划板的第1块靶板,最外周的左边分别为0组分划板的第2至第6块靶板。分划板最外周的右边(0组分划板的第1块靶板上面)分别为第1组分划板的第1至第6块靶板。分划板内部是更小尺寸的分辨力靶板,排列方式与外周相同。如2组分划板的排列方式与0组分划板的排列方式相同,而3组分别板的排列方式与1组分划板的排列方式相同。

    图  2  分辨力测试分划板
    Figure  2.  Target used in resolution measurement

    靶板经投影物镜投射在像增强器的光电阴极上,经微通道板增强以后在荧光屏上成像,该图像再被显微目镜放大供人眼观察。观察时,人眼所能分辨最小靶标的线对数即为分辨力。测量超二代像增强器不同照度下的分辨力时,输入照度从高到低,每改变一次照度,测量一次分辨力,从4.3×10-2 lx开始,一直到4.3×10-7 lx为止,这样就可测出超二代像增强器不同照度下的分辨力(R)。超二代像增强器测试样品的输入窗为玻璃,有效阴极直径为18 mm,光电阴极为Na2KSb(Cs)多碱阴极,输出窗为光纤倒像器,荧光屏为镀铝荧光屏,荧光粉牌号为P43,倍增机构为微通道板(microchannel plate,MCP),电子聚焦为双近贴聚焦。测量样品共4支,具体性能指标,如增益(G)、极限分辨力(Rm)、信噪比(SNR)及等效背景照度(EBI)见表 1。另外所选超二代像增强器样品的增益(定义为像增强器荧光屏输出亮度与光电阴极输入照度之比)均为15000 cd⋅m-2⋅lx-1

    表  1  试验样品参数
    Table  1.  Parameters of samples for resolution measurement
    Sample G/(cd·m-2·lx-1) Rm/(lp·mm-1) SNR EBI/lx
    5327# 15000 64 24.7 1.5×10-7
    4525# 15000 57 24.4 1.7×10-7
    3533# 15000 64 29.1 1.4×10-7
    3445# 15000 64 28.9 0.1×10-7
    下载: 导出CSV 
    | 显示表格

    图 3为4支样品在不同照度下的测量结果。为叙述方便,以下将5×10-2 lx~5×10-3 lx之间的照度称为高照度(简称高照);将5×10-3 lx~5×10-6 lx之间的照度称为低照度(简称低照);将5×10-6 lx~5×10-7 lx之间的照度称为极低照度(简称极低照)。

    图  3  不同照度下的分辨力
    Figure  3.  Resolution under different illuminations

    图 3可看出,在高照区间,4支不同性能参数样品的分辨力均不随着照度的降低而降低,均等于其极限分辨力。这说明超二代像增强器在高照下的分辨力由其极限分辨力所决定。超二代像增强器的极限分辨力越高,其在高照区间的分辨力也越高。但在低照及极低照下,4支不同性能参数样品的分辨力均随着照度的降低而降低,所不同的仅仅是分辨力曲线降低的速率。

    超二代像增强器分辨力由人眼来判断,因此是一个主观指标。人眼分辨目标遵从科尔特曼定律[5],即亮度L、对比度C及最小分辨角α之间服从式(1)的关系,其中K为常数。

    $$ L⋅C^{2}⋅α^{2}=K $$ (1)

    对于超二代像增强器而言,随着输入照度的降低,其输出亮度会随之降低。在分辨力的测量过程中,如果超二代像增强器输出图像的对比度C保持不变,那么当分辨力靶板在超二代像增强器荧光屏上的亮度L降低以后,根据式(1),人眼的最小分辨角α随之增大。人眼分辨角α增大,意味着所测量的分辨力将会减小。在高照度区间,由于人眼的分辨角还能满足对超二代像增强器极限分辨力的分辨,因此在高照度区间,超二代像增强器的分辨力不随照度的降低而降低。但在低照及极低照区间,随着人眼分辨角的进一步增大,人眼的分辨角开始影响对超二代像增强器极限分辨力的分辨,使得在低照及极低照区间,超二代像增强器的分辨力随输入照度的降低而降低。所以要提高超二代像增强器在低照及极低照下的分辨力,需要进一步提高超二代像增强器的增益,从而增加超二代像增强器的输出亮度。但对于超二代像增强器,增益机构为MCP。MCP的增益越高,像增强器的增益越高,但目前提高MCP的增益采用提高MCP工作电压的方法。MCP的工作电压越高,其噪声因子越大,像增强器的信噪比越低。因此考虑到像增强器增益对信噪比的影响,目前超二代像增强器的增益为15000 cd⋅m-2⋅lx-1。为了进一步提高超二代像增强器的增益,需要解决高MCP工作电压和高增益与低MCP噪声因子的矛盾,这需要研制出高增益和低噪声的MCP[6-8]

    为分析极限分辨力对分辨力随输入照度变化的影响[9-13],对5327#和4525#样品的分辨力曲线进行比较。5327#样品的极限分辨力为64 lp⋅mm-1,信噪比为24.7,等效背景照度为1.5×10-7 lx;4525#样品的极限分辨力为57 lp⋅mm-1,信噪比为24.4,等效背景照度为1.7×10-7 lx。2支样品的信噪比及等效背景照度基本相同,主要区别在于极限分辨力,因此比较这两支像增强器的分辨力曲线即可分析极限分辨力对不同照度下分辨力的影响。比较图 3中5327#和4525#样品的分辨力曲线,可看出在低照及极低照区间,随着照度的降低,其分辨力均随输入照度的降低而降低。在分辨力降低过程中,在约2×10-5 lx照度时两条分辨力曲线达到相交,之后随着照度的进一步降低,其分辨力曲线的变化基本相同,并且在4.3×10-7 lx时趋于0。另外通过比较5327#和4525#样品的分辨力曲线还可以看出,在低照区间,极限分辨力高的,不同照度下的分辨力也越高,并且照度越高,分辨力越高。但在极低照区间,不同极限分辨力的样品却具有相同的分辨力。

    超二代像增强器的极限分辨力实际上是指其电子光学系统[14]的分辨力。超二代像增强器的电子光学成像链包括阴极近贴聚焦距离、阳极近贴聚焦距离、微通道板、荧光屏以及光纤倒像器。限于工艺制造水平的限制,目前超二代像增强器的阴极近贴聚焦距离控制在约0.15 mm,阳极近贴聚焦距离控制在约0.5 mm。如果再进一步减小距离,会降低超二代像增强器生产的良品率。因此在通过减小阴极和阳极近贴聚焦距离来提高分辨力方面困难较大。而在提高荧光屏分辨力方面,考虑到荧光屏的分辨力与发光效率之间存在一定的矛盾,因此进一步提高荧光屏的分辨力困难也较大。所以目前在提高超二代像增强器的极限分辨力方面,较可行的办法是进一步减小微通道板的孔径及荧光屏输出窗光纤面板的丝径。

    为了解信噪比[15-16]对不同输入照度下分辨力的影响,对图 3中5327#和3533#样品的分辨力曲线进行比较。3533#样品的极限分辨力为64 lp⋅mm-1,信噪比为29.1,等效背景照度为1.4×10-7 lx,与5327#样品相比,极限分辨力和等效背景照度基本相同,主要的区别为信噪比(见表 1),因此比较这两支像增强器的分辨力曲线即可分析信噪比对不同照度下的分辨力影响。从图 3可看出,2支样品在低照及极低照区间,分辨力随输入照度降低而降低的速率并不相同。3533#样品分辨力降低的速率相对较慢,并且分辨力均高于5327#样品。但3533#样品的分辨力在4.3×10-7 lx时也趋于0。5327#和3533#样品在低照及极低照区间分辨力不同的原因是信噪比不同。因为在低照及极低照度下,光子涨落噪声对分辨力的影响逐步显现。图 4(a)4(b)4(c)分别为3533#样品在4.3×10-2 lx、4.3×10-4 lx以及4.3×10-5 lx照度下的分辨力靶板图像。图 4(a)图像中分化线的亮度均匀且稳定,未出现明显的涨落噪声,所以涨落噪声未对分辨力产生影响。图 4(b)图像中分化线的亮度不均匀且闪烁,即出现明显的涨落噪声,因此对分辨力的影响开始显现,这样图像中心区域的2组及以下的靶板由于涨落噪声的影响而不能分辨,仅能分清最外周左右两边0组和1组的靶板,因此分辨力降低了。图 4(c)图像中分化线的亮度更加不均匀且更加闪烁,分划线完全由随机出现的亮点(闪烁点)所组成,涨落噪声更加明显,对分辨力的影响更显著。与图 4(b)相比,不仅图像中心区域的2组和3组的靶板由于涨落噪声的影响而不能分辨,而且图像左右两边的0组和1组的靶板的轮廓也较模糊,因此分辨力更低。所以涨落噪声在低照及极低照下会影响分辨力。信噪比与涨落噪声相关,在相同的信号强度下,涨落噪声越高,信噪比越低;涨落噪声越低,信噪比越高。5327#样品的信噪比为24.4,而3533#样品的信噪比为29.1,3533#样品具有更高的信噪比,因此在相同的照度下,涨落噪声更低,所以在低照及极低照区间,具有更高的分辨力。

    图  4  不同照度下的分辨力靶板图像
    Figure  4.  Image of target under different illuminations

    为了分析等效背景照度对不同照度下分辨力的影响,对图 3中5327#和3445#样品的分辨力曲线进行比较。3445#样品的极限分辨力为64 lp⋅mm-1,信噪比为28.9,等效背景照度为0.1×10-7 lx,与5327#样品相比较,2支样品的极限分辨力以及信噪比基本相同,其主要区别在于3445#样品的等效背景照度较5327#样品低了一个数量级(见表 1),因此分析这两支像增强器的分辨力曲线可得出等效背景照度对不同照度下分辨力的影响。从图 3可看出,2支样品在4.3×10-4 lx以上照度区间的分辨力基本相同,但在4.3×10-4 lx以下的照度区间,3445#样品的分辨力均高于5327#样品,特别是在极低照度区间,区别更明显。如在4.3×10-7 lx照度时,3445#样品的分辨力为10 lp⋅mm-1,但5327#样品的分辨力却为0,因此2支样品等效背景照度不同是造成其分辨力在5×10-7 lx照度下不同的原因。如果超二代像增强器的输入照度为E,光电阴极的灵敏度为S,面积为A,那么光电阴极所产生的光电流Ip和暗电流Id分别由式(2)、式(3)给出:

    $$ I_{\rm p}=E⋅S⋅A $$ (2)
    $$ I_{\rm d}={\rm EBI}⋅S⋅A $$ (3)

    光电阴极是一个光电转换器件,它的作用是将光信号转变为电(电流)信号。根据对比度的定义,光电阴极输出电信号的对比度C由式(4)表示:

    $$ C = \frac{{{I_\rm p} - {I_\rm d}}}{{{I_\rm p} + {I_\rm d}}} $$ (4)

    将式(2)、式(3)代入式(4),可得出式(5):

    $$ C = \frac{{E -\rm EBI}}{{E +\rm EBI}} $$ (5)

    从式(5)可看出等效背景照度会降低电信号的对比度。在超二代像增强器中,输入图像经光电阴极转换,电信号再经MCP倍增和荧光屏转换。在此过程中,假设MCP倍增和荧光屏转换过程中不损失电信号对比度,那么荧光屏上图像的对比度就等于光电阴极输出电信号的对比度,所以等效背景照度会影响超二代像增强器荧光屏输出图像的对比度。当输入照度E远远大于光电阴极的等效背景照度时(例如高于1个数量级),等效背景照度对电信号对比度的影响较小;输入光的照度与光电阴极的等效背景照度相近时,等效背景照度对电信号对比度的影响较大。在4.3×10-7 lx照度条件下,假设输入图像的对比度为100%,那么根据式(5)可以分别计算出3445#和5327#样品电信号对比度分别为54%和96%。假设微通道板的倍增以及荧光屏的转换不损失对比度,那么3445#和5327#样品荧光屏上图像的对比度也分别为54%和96%。因为分辨力测量是用人眼观察,所以图像的对比度越高,图像越容易被人眼分辨,分辨力越高。5327#样品具有较高的对比度,因此具有更高的分辨力。所以在极限分辨力及信噪比相同的条件下,在5×10-4 lx以下的照度区间,等效背景照度的影响开始显现,等效背景照度越低,分辨力越高。超二代像增强器的等效背景照度主要由光电阴极的暗发射所决定。长期以来,人们对多碱阴极的灵敏度研究主要集中在提高其灵敏度方面[17-19],并且在提高多碱阴极灵敏度方面取得了较大的进展,使得多碱阴极的灵敏度得到了较大的提高[20-21],并且超过了1000 μA⋅lm-1。与多碱阴极灵敏度的提高相比,在降低多碱阴极暗发射方面的研究却较少,因此在降低多碱阴极暗发射方面所取得的进展也不大,暗发射仍然维持在原有水平。所以为了提高超二代像增强器在低照及极低照下的分辨力,在进一步提高多碱阴极灵敏度的同时,需要进一步降低多碱阴极的暗发射。

    通常情况下,超二代像增强器所标称的分辨力实际上是指其极限分辨力,并不是超二代像增强器在实际使用过程中的分辨力。超二代像增强器只有在高照下使用时,分辨力才等于其极限分辨力;在低照及极低照下,分辨力随照度降低而降低。

    超二代像增强器的极限分辨力越高,在高照下的分辨力也越高。但在低照及极低照下,超二代像增强器的分辨力不仅与极限分辨力有关,而且还与信噪比及等效背景照度有关。信噪比越高、等效背景照度越低,分辨力越高。在低照区间,信噪比对分辨力的影响更大,但在极低照区间,等效背景照度对分辨力的影响更大。

    超二代像增强器主要在弱光下使用,所以在提高超二代像增强器极限分辨力的同时,还需要提高超二代像增强器在低照及极低照下的分辨力,而这需要在提高极限分辨力的同时,提高信噪比和降低等效背景照度。

  • 图  1   二分支卷积单元

    Figure  1.   Two-branch convolution unit

    图  2   神经网络中的梯度下降图

    Figure  2.   Gradient descent diagram in neural network

    图  3   图像压缩方案框架

    Figure  3.   Image compression scheme framework

    图  4   双线性差值方法

    Figure  4.   Bilinear difference method

    图  5   PV插值

    Figure  5.   PV interpolation

    图  6   IHS颜色空间

    Figure  6.   IHS color space

    图  7   实验数据集中的一组红外图像(左侧)和可见光图像(右侧)

    Figure  7.   A set of infrared images (left) and visible light images (right) in the experimental dataset

    图  8   红外与可见光融合图像在细节部分的实验对比

    Figure  8.   Experimental comparison of infrared and visible light fusion images in the detail part

    表  1   本实验的结果对比

    Table  1   Comparison of the results of this experiment

    Evaluation standard Reference [4] Proposed Promote /% Reference [5] Proposed Promote /% Reference [6] Proposed Promote /%
    RMSE 4.62 3.78 +18.2% 4.96 3.78 +23.8% 4.62 3.78 +18.2%
    AMSLE 1.54 0.98 +36.4% 2.01 0.98 +51.2% 2.41 0.98 +48.1%
    Fuzzy entropy 4.69 6.23 +32.8% 5.95 6.23 +4.7% 4.59 6.23 +35.7%
    Time/s 121.81 136.12 -11.7% 58.09 136.12 -134.3% 61.24 136.12 -122.3%
    下载: 导出CSV

    表  2   不同方法的均方根误差

    Table  2   Root mean square error of different methods

    Experiment number Methods
    Proposed Reference [4] Reference [5] Reference [6]
    1 0.02 0.12 0.69 0.78
    2 0.04 0.13 0.67 0.80
    3 0.01 0.13 0.68 0.82
    4 0.03 0.14 0.69 0.82
    5 0.02 0.15 0.70 0.83
    6 0.01 0.15 0.71 0.85
    7 0.01 0.16 0.71 0.86
    下载: 导出CSV
  • [1] 朱莹, 夏亦犁, 裴文江. 基于改进的BEMD的红外与可见光图像融合方法[J]. 计算机科学, 2020, 47(3): 124-129. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA202003022.htm

    ZHU Ying, XIA Yili, PEI Wenjiang. Infrared and visible image fusion method based on improved BEMD[J]. Computer Science, 2020, 47(3): 124-129. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA202003022.htm

    [2] 苏金凤, 张贵仓, 汪凯. 结合鲁棒主成分分析和非下采样轮廓波变换的红外与可见光图像的压缩融合[J]. 激光与光电子学进展, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    SU Jinfeng, ZHANG Guicang, WANG Kai. Compression and fusion of infrared and visible images combined with robust principal component analysis and non-subsampled contourlet transform[J]. Advances in Lasers and Optoelectronics, 2020, 57(4): 84-93. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202004008.htm

    [3] 邓秋菊, 王宁. 非下采样轮廊波变换的红外与可见光图像融合[J]. 激光杂志, 2020, 41(4): 92-95. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ202004018.htm

    DENG Qiuju, WANG Ning. Infrared and visible image fusion based on non-subsampling contour wave transform[J]. Laser Journal, 2020, 41(4): 92-95. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ202004018.htm

    [4] 王兴龙, 朱芳. 基于双通道PCNN的NSST域红外与可见光图像融合[J]. 平顶山学院学报, 2020, 35(2): 55-61. DOI: 10.3969/j.issn.1673-1670.2020.02.011

    WANG Xinglong, ZHU Fang. Fusion of infrared and visible light images in NSST domain based on dual-channel PCNN[J]. Journal of Pingdingshan University, 2020, 35(2): 55-61. DOI: 10.3969/j.issn.1673-1670.2020.02.011

    [5] 陈潮起, 孟祥超, 邵枫, 等. 一种基于多尺度低秩分解的红外与可见光图像融合方法[J]. 光学学报, 2020, 40(11): 72-80. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202011008.htm

    CHEN Chaoqi, MENG Xiangchao, SHAO Feng, et al. A fusion method of infrared and visible light images based on multi-scale low-rank decomposition[J]. Acta Optics Sinica, 2020, 40(11): 72-80. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202011008.htm

    [6] 沈瑜, 陈小朋, 苑玉彬, 等. 基于显著矩阵与神经网络的红外与可见光图像融合[J]. 激光与光电子学进展, 2020, 57(20): 76-86. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202020009.htm

    SHEN Yu, CHEN Xiaopeng, YUAN Yubin, et al. Fusion of infrared and visible light images based on saliency matrix and neural network[J]. Advances in Lasers and Optoelectronics, 2020, 57(20): 76-86. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202020009.htm

    [7] 张贵仓, 苏金凤, 拓明秀. DTCWT域的红外与可见光图像融合算法[J]. 计算机工程与科学, 2020, 42(7): 1226-1233. DOI: 10.3969/j.issn.1007-130X.2020.07.011

    ZHANG Guicang, SU Jinfeng, TUO Mingxiu. Infrared and visible light image fusion algorithm in DTCWT domain[J]. Computer Engineering and Science, 2020, 42(7): 1226-1233. DOI: 10.3969/j.issn.1007-130X.2020.07.011

    [8] 任立成, 刘勇, 张建林, 等. 基于特征融合的双分支模板更新跟踪算法[J]. 国外电子测量技术, 2021, 40(5): 14-21. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202105006.htm

    REN Licheng, LIU Yong, ZHANG Jianlin, et al. Two-branch template update tracking algorithm based on feature fusion[J]. Foreign Electronic Measurement Technology, 2021, 40(5): 14-21. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202105006.htm

    [9] 吴佼华, 杨学志, 方帅, 等. 基于双分支卷积神经网络的SAR与多光谱图像融合实验[J]. 地理与地理信息科学, 2021, 37(2): 22-30. DOI: 10.3969/j.issn.1672-0504.2021.02.004

    WU Jiaohua, YANG Xuezhi, FANG Shuai, et al. Experiment of SAR and multispectral image fusion based on double-branch convolutional neural network[J]. Geography and Geographic Information Science, 2021, 37(2): 22-30. DOI: 10.3969/j.issn.1672-0504.2021.02.004

    [10] 薛盼盼, 刘云, 李辉, 等. 基于时域扩张残差网络和双分支结构的人体行为识别[J/OL]. 控制与决策: 1-10[2021-09-29]. https://doi.org/10.13195/j.kzyjc.2021.0648.

    XUE Panpan, LIU Yun, LI Hui, et al. Human Behavior Recognition Based on Time Domain Dilated Residual Network and Dual Branch Structure [J/OL]. Control and Decision: 1-10. [2021-09-29]. https://doi.org/10.13195/j.kzyjc.2021.0648.

    [11] 张雪, 孟令灿, 聂秀山. 基于双分支网络特征融合的车辆重识别方法[J]. 数据采集与处理, 2021, 36(3): 468-476. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ202103005.htm

    ZHANG Xue, MENG Lingcan, NIE Xiushan. Vehicle re-identification method based on dual-branch network feature fusion[J]. Data Collection and Processing, 2021, 36(3): 468-476. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ202103005.htm

    [12] 贺双龙, 杨斌. 基于局部结构和视觉显著特征的红外和可见光图像泊松重构融合算法[J]. 南华大学学报: 自然科学版, 2020, 34(5): 62-70, 76. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNGB202005011.htm

    HE Shuanglong, YANG Bin. Poisson reconstruction fusion algorithm for infrared and visible light images based on local structure and visual salient features[J]. Journal of University of South China: Natural Science Edition, 2020, 34(5): 62-70, 76. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNGB202005011.htm

    [13] 周哓玲, 江泽涛. 结合脉冲耦合神经网络与引导滤波的红外与可见光图像融合[J]. 光学学报, 2019, 39(11): 132-139. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201911016.htm

    ZHOU Weiling, JIANG Zetao. Fusion of infrared and visible light images combined with pulse-coupled neural network and guided filtering[J]. Journal of Optics, 2019, 39(11): 132-139. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201911016.htm

    [14] 刘明君, 董增寿. 基于多特征的红外与可见光图像融合[J]. 激光杂志, 2019, 40(10): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ201910017.htm

    LIU Mingjun, DONG Zengshou. Fusion of infrared and visible light images based on multi-features[J]. Laser Journal, 2019, 40(10): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-JGZZ201910017.htm

    [15] 王宁, 周铭, 杜庆磊. 一种红外可见光图像融合及其目标识别方法[J]. 空军预警学院学报, 2019, 33(5): 328-332. DOI: 10.3969/j.issn.2095-5839.2019.05.004

    WANG Ning, ZHOU Ming, DU Qinglei. An infrared and visible light image fusion and its target recognition method[J]. Journal of Air Force Early Warning Academy, 2019, 33(5): 328-332. DOI: 10.3969/j.issn.2095-5839.2019.05.004

    [16] 宫睿, 王小春. BEMD分解和W变换相结合的红外与可见光图像融合[J]. 中国图象图形学报, 2019, 24(6): 987-999. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201906014.htm

    GONG Rui, WANG Xiaochun. Fusion of infrared and visible light images combined with BEMD decomposition and W transform[J]. Chinese Journal of Image and Graphics, 2019, 24(6): 987-999. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB201906014.htm

    [17] 张雷雷, 王铎. 基于局部能量和邻域信息的红外与可见光图像融合[J]. 光电技术应用, 2019, 34(3): 19-22. DOI: 10.3969/j.issn.1673-1255.2019.03.005

    ZHANG Leilei, WANG Duo. Fusion of infrared and visible light images based on local energy and neighborhood information[J]. Application of Optoelectronic Technology, 2019, 34(3): 19-22. DOI: 10.3969/j.issn.1673-1255.2019.03.005

    [18] 荣传振, 贾永兴, 吴城, 等. 红外与可见光图像分解与融合方法研究[J]. 数据采集与处理, 2019, 34(1): 146-156. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ201901015.htm

    RONG Chuanzhen, JIA Yongxing, WU Cheng, et al. Research on infrared and visible image decomposition and fusion methods[J]. Data Acquisition and Processing, 2019, 34(1): 146-156. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ201901015.htm

    [19] 冯鑫. Tetrolet框架下红外与可见光图像融合[J]. 光子学报, 2019, 48(2): 76-84. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201902010.htm

    FENG Xin. Fusion of infrared and visible light images under Tetrolet framework[J]. Acta Photonica Sinica, 2019, 48(2): 76-84. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201902010.htm

    [20] 朱平哲. 基于DCT与PSO的可见光与红外图像融合方法[J]. 新疆大学学报: 自然科学版, 2018, 35(4): 452-458. https://www.cnki.com.cn/Article/CJFDTOTAL-XJDZ201804011.htm

    ZHU Pingzhe. Visible light and infrared image fusion method based on DCT and PSO[J]. Journal of Xinjiang University: Natural Science Edition, 2018, 35(4): 452-458. https://www.cnki.com.cn/Article/CJFDTOTAL-XJDZ201804011.htm

    [21] 孔玲君, 张志华, 曾茜, 等. 基于NSST和SWT的红外与可见光图像融合算法研究[J]. 包装工程, 2018, 39(19): 216-222. https://www.cnki.com.cn/Article/CJFDTOTAL-BZGC201819038.htm

    KONG Lingjun, ZHANG Zhihua, ZENG Qian, et al. Research on infrared and visible light image fusion algorithm based on NSST and SWT[J]. Packaging Engineering, 2018, 39(19): 216-222. https://www.cnki.com.cn/Article/CJFDTOTAL-BZGC201819038.htm

    [22] 邱泽敏. 结合区域与边缘特征的红外与可见光图像融合算法[J]. 红外技术, 2018, 40(5): 449-454. http://hwjs.nvir.cn/article/id/hwjs201805008

    QIU Zemin. Infrared and visible image fusion algorithm combining region and edge features[J]. Infrared Technology, 2018, 40(5): 449-454. http://hwjs.nvir.cn/article/id/hwjs201805008

    [23] 朱亚辉. 聚类分析的红外与可见光融合质量指标相似性研究[J]. 计算机系统应用, 2018, 27(2): 216-222. DOI: 10.3969/j.issn.1003-3254.2018.02.037

    ZHU Yahui. Research on the similarity of infrared and visible light fusion quality indicators based on cluster analysis[J]. Computer System Applications, 2018, 27(2): 216-222. DOI: 10.3969/j.issn.1003-3254.2018.02.037

    [24] 吴冬鹏, 毕笃彦, 马时平, 等. 边缘和对比度增强的NSST域红外与可见光图像融合[J]. 红外技术, 2017, 39(4): 358-364. http://hwjs.nvir.cn/article/id/hwjs201704011

    WU Dongpeng, BI Duyan, MA Shiping, et al. Edge and contrast enhanced fusion of NSST domain infrared and visible light images[J]. Infrared Technology, 2017, 39(4): 358-364. http://hwjs.nvir.cn/article/id/hwjs201704011

    [25] 傅志中, 王雪, 李晓峰, 等. 基于视觉显著性和NSCT的红外与可见光图像融合[J]. 电子科技大学学报, 2017, 46(2): 357-362. https://www.cnki.com.cn/Article/CJFDTOTAL-DKDX201702007.htm

    FU Zhizhong, WANG Xue, LI Xiaofeng, et al. Fusion of infrared and visible light images based on visual saliency and NSCT[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(2): 357-362. https://www.cnki.com.cn/Article/CJFDTOTAL-DKDX201702007.htm

    [26] 李昌兴, 王志强. 基于视觉特性的红外与可见光图像融合[J]. 西安邮电大学学报, 2016, 21(6): 98-102. https://www.cnki.com.cn/Article/CJFDTOTAL-XAYD201606017.htm

    LI Changxing, WANG Zhiqiang. Fusion of infrared and visible light images based on visual characteristics[J]. Journal of Xi'an University of Posts and Telecommunications, 2016, 21(6): 98-102. https://www.cnki.com.cn/Article/CJFDTOTAL-XAYD201606017.htm

    [27] 周华兵, 侯积磊, 吴伟, 等. 基于语义分割的红外和可见光图像融合[J]. 计算机研究与发展, 2021, 58(2): 436-443. https://www.cnki.com.cn/Article/CJFDTOTAL-JFYZ202102020.htm

    ZHOU Huabing, HOU Jilei, WU Wei, et al. Fusion of infrared and visible light images based on semantic segmentation[J]. Journal of Computer Research and Development, 2021, 58(2): 436-443. https://www.cnki.com.cn/Article/CJFDTOTAL-JFYZ202102020.htm

    [28] 张蕾. 采用改进平均梯度与自适应PCNN的图像融合[J]. 计算机应用与软件, 2021, 38(3): 218-223. https://www.cnki.com.cn/Article/CJFDTOTAL-JYRJ202103034.htm

    ZHANG Lei. Image fusion using improved average gradient and adaptive PCNN[J]. Computer Applications and Software, 2021, 38(3): 218-223. https://www.cnki.com.cn/Article/CJFDTOTAL-JYRJ202103034.htm

  • 期刊类型引用(4)

    1. 李亚情,杨壮,高天礼,周盛涛,李晓露,宝元喜,杜培德,戴靖昊,何俊,张立昀,宋奇庚,王光凡,许灵吉,张旭. 自动门控电源对像增强器性能的影响. 红外技术. 2025(04): 421-428 . 本站查看
    2. 王贺. 用于X射线像增强器便携成像的观瞄目镜设计研究. 长春大学学报. 2024(02): 15-20 . 百度学术
    3. 李晓峰,何雁彬,常乐,王光凡,徐传平. 超二代与三代像增强器性能的比较研究. 红外技术. 2022(08): 764-777 . 本站查看
    4. 彭华兴,闫保军,刘术林,张斌婷,韦雯露. 电子倍增器脉冲信号图形化离线分析软件. 应用光学. 2022(06): 1107-1116 . 百度学术

    其他类型引用(0)

图(8)  /  表(2)
计量
  • 文章访问数:  183
  • HTML全文浏览量:  127
  • PDF下载量:  39
  • 被引次数: 4
出版历程
  • 收稿日期:  2021-09-22
  • 修回日期:  2022-05-02
  • 刊出日期:  2022-05-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日