基于对比度金字塔与双边滤波的非对称红外与可见光图像融合

杨九章, 刘炜剑, 程阳

杨九章, 刘炜剑, 程阳. 基于对比度金字塔与双边滤波的非对称红外与可见光图像融合[J]. 红外技术, 2021, 43(9): 840-844.
引用本文: 杨九章, 刘炜剑, 程阳. 基于对比度金字塔与双边滤波的非对称红外与可见光图像融合[J]. 红外技术, 2021, 43(9): 840-844.
YANG Jiuzhang, LIU Weijian, CHENG Yang. Asymmetric Infrared and Visible Image Fusion Based on Contrast Pyramid and Bilateral Filtering[J]. Infrared Technology , 2021, 43(9): 840-844.
Citation: YANG Jiuzhang, LIU Weijian, CHENG Yang. Asymmetric Infrared and Visible Image Fusion Based on Contrast Pyramid and Bilateral Filtering[J]. Infrared Technology , 2021, 43(9): 840-844.

基于对比度金字塔与双边滤波的非对称红外与可见光图像融合

基金项目: 

国家自然科学基金项目 61905014

全国博管会博士后国际交流派出计划 20190097

详细信息
    作者简介:

    杨九章(1996-), 男, 硕士研究生, 主要从事图像处理方向的研究。E-mail:825438054@qq.com

    通讯作者:

    程阳(1990-), 男, 博士, 助理研究员, 研究方向包括液体透镜, 仿生成像, 图像处理, 主持国家自然科学基金青年项目、博士后国际交流派出计划项目、教育部重点实验室开放课题。E-mail: yangcheng_2007@163.com

  • 中图分类号: TP391

Asymmetric Infrared and Visible Image Fusion Based on Contrast Pyramid and Bilateral Filtering

  • 摘要: 为了同时保留红外图像的特征信息和可见光图像的细节信息,提出了一种基于对比度金字塔的非对称红外与可见光图像融合方法。首先,使用对比度金字塔对红外与可见光图像进行高频与低频信息分解,然后对高频部分采用绝对值取大方法进行融合,对于低频部分采用基于双边滤波的方法对红外与可见光图像进行非对称的处理;其次,使用对比度金字塔的逆变换得到融合后图像。对融合图像进行主观视觉和客观指标评价,结果表明该算法在突出目标特征信息和保留细节特征方面表现优异。
    Abstract: This study proposes an asymmetric infrared and visible image fusion method based on a contrast pyramid to save the feature information of infrared image and the detail information of visible image simultaneously. First, the contrast pyramid is used to decompose the high-frequency and low-frequency information of the infrared and visible images; then, the high-frequency part is fused by taking the largest absolute value, and the low-frequency part is processed differently by the method based on bilateral filtering. Second, the inverse transform of the contrast pyramid was used to obtain the fused image. Subjective visual and objective index evaluations were conducted on the fused image. The results show that the algorithm performs well in highlighting the target feature information and retaining detailed feature information.
  • 在夜间低照度和浓雾等照明条件较差的情况下,可见光图像难以获得令人满意的环境与目标信息。红外图像可捕捉到场景热信息,为解决照明调节差的问题提供了一种有效的方法。由于红外图像采用的光谱与人眼可感受的光谱不在同一谱段,因而红外图像的特征往往不被人类视觉系统所偏好,导致空间细节的丢失和非自然的视觉质量的问题[1]。红外和可见光图像融合目的是利用两种光谱成像技术的特性,生成一幅复合图像[2]。在复合图像中同时获得清晰的目标热信息和更符合人类视觉习惯的背景信息。许多现实世界中的应用包括视频监控、物体检测和人脸识别均得益于该类融合技术[3]。近几年提出的融合方法[4]多数只是用相同的方法处理可见光与红外图像,没有充分利用两种图像的优势与区分两者图像的不同。本文提出融合方法以红外与可见光图像本身的优势作为出发点,差别处理红外与可见光图像,在融合图像中保留可见光的环境细节与红外图像的环境与目标信息。

    红外与可见光生成图像的方法不同,红外和可见光图像在同一位置的强度往往具有较大差异。大多数红外和可见光图像的融合算法通过多尺度融合以更加符合人眼视觉[5]。例如,赵立昌等人通过机器学习确定多尺度融合的参数[6],融合效果较好,能适应多种场景要求,但是该算法通用性较差,对不同场景需要不同的算法模型的问题。崔晓荣等人提出的基于二维经验模态分解[7]方法虽然能较为明显的突出目标,但是融合后图像对比度变化较大,不符合人眼视觉。李辰阳等人提出的基于改进谱残差显著性图的融合[8]方法通过残差图确定双树复小波分解的系数,融合效果较好,但是较为复杂,融合结果受残差图显著性影响较大。

    在融合图像中保留可见光的环境细节与红外图像的环境与目标信息,本文先使用多尺度变换方法分解出图像的高频信息与低频信息,通过结合双边滤波器的特点,在分离出的低频部分对红外与可见光图像采用不同的处理方法,可充分利用红外与可见光的优势,达到同时保留红外图像的特征信息和可见光图像的细节信息融合效果,在高频部分使用绝对值取大的方法。

    双边滤波器可以平滑小规模细节的同时保留强边缘信息。它通过空间距离和高斯核的组合过滤空间和距离域中的图像,是一种非线性边缘保留滤波器[9]。高斯滤波核表示为:

    $$ {\mathit{g}_\mathit{\sigma }}{\rm{(}}\mathit{x}{\rm{)}}\mathit{ = }{\rm{exp(}} - {\mathit{x}^2}/{\mathit{\sigma }^2}{\rm{)}} $$ (1)

    图像I在点p的双边滤波表示为:

    $${I_{\rm{b}}}(p) = \frac{1}{W}\sum\limits_{q \in \mathit{\Omega }\ } {{g_{{\sigma _{\rm{s}}}}}(\left\| {p - q} \right\|){g_{{\sigma _{\rm{r}}}}}(\left| {I(p) - I(q)} \right|)I(q)} $$ (2)
    $$W = \sum\limits_{q \in \mathit{\Omega }\ } {{g_{{\sigma _{\rm{s}}}}}(\left\| {p - q} \right\|){g_{{\sigma _{\rm{r}}}}}(\left| {I(p) - I(q)} \right|)} $$ (3)

    式中:σsσr是标准的空间域距离的高斯标准差;通过距离pq和强度I(p)-I(q)控制了旁边点的像素值对当前点的影响。

    对比度金字塔[10]是一种常用的图像分解方法,与传统的拉普拉斯金字塔[11]不同,对比度金字塔每层获取的信息不是差值信息,而采用更加符合人眼视觉习惯的比值信息。对比度金字塔将图像分解为不同的空间频度,顶层的空间频度最低,每一层分别记录了对应空间频度的比值信息。

    在融合过程中,根据金字塔每层信息的不同特点,选择不同的融合规则。传统的融合规则有加权平均法[12],绝对值取大法[13]等。这种对于不同空间频度的分别处理,使得对比度金字塔图像融合的效果更加符合人眼视觉。

    首先采用对比度金字塔将图像分解为高频与低频两部分:①对于低频部分,即金字塔图像分解的顶层图像,采用非对称的融合方法,即根据自身特点,对红外图像与可见光图像采用不同的处理方式注入最上层可见光图像中。②对于高频部分,即除金字塔顶层以外的其他层图像,采用经典的绝对值取大的方法。具体来说,对于低频部分,以最上层可见光图像作为初始图像。将红外图像与可见光图像自己的特征信息注入最上层的可见光图像。用双边滤波算法分别处理红外图像与可见光图像,由公式(2)与公式(3)获得红外与可见光图像的Ib。在获得Ib的过程中通过设置一个相对较小的σr值可以保留由强边缘分隔的“大尺度特征”,并删除由纹理特征主导的精细尺度细节。

    此外,Ig(p)是仅通过使用空间高斯${g_{{\sigma _{\rm{s}}}}}$计算的对应高斯滤波图像,计算方法为:

    $${I_{\rm{g}}}(p) = \frac{1}{W}\sum\limits_{q \in \mathit{\Omega }\ } {{g_{{\sigma _{\rm{s}}}}}(\left\| {p - q} \right\|)I(q)} $$ (4)
    $$W{\rm{ = }}\sum\limits_{q \in \mathit{\Omega }\ } {{g_{{\sigma _{\rm{s}}}}}(\left\| {p - q} \right\|)} $$ (5)

    其中,IbIg相比,Ib包含某些额外的边缘信息。因此,分别通过以下减法获得保留在Ib中去除的精细纹理细节P0和附加的边缘特征P1

    $$ {\mathit{P}_0} = I - {I_{\rm{b}}} $$ (6)
    $$ {\mathit{P}_1} = {I_{\rm{b}}} - {I_{\rm{g}}} $$ (7)

    在原可见光图像的低频信息基础上,将红外图像的P0信息加入其中,使原来模糊的边界变得清晰,将可见光图像的P1信息加入,可保留更多的图像细节,使得融合图像保留红外图像目标特征同时消除一部分因图像融合带来的可见光细节信息的减弱。

    为了验证本文算法的有效性,选取3组的红外与可见光图像进行对比,并将本文算法与拉普拉斯金字塔(Laplacian pyramid, LP)、小波融合[14](wavelet method)、双树复小波变换[15](dual-tree complex wavelet transform, DTCWT)方法进行比较。实验计算机CPU主频1.99 GHz,内存8 G,实验软件平台MATLAB R2014a。本文中LP、DP、DTCWT的融合规则均采用低频系数取均值,高频系数为局部能量取大的方法,小波变换使用db2波形。可见光和红外的源图像与采用不同方法得到的融合结果如图 1~图 3

    图  1  House源图像融合结果
    Figure  1.  Fusion results of House source image
    图  2  Road源图像融合结果
    Figure  2.  Fusion results of Road image
    图  3  Ship源图像融合结果
    Figure  3.  Fusion result of ship image

    图 1为House源图像的融合结果,其中图(a)为红外图像,图(b)为可见光图像。可以看出红外图像中人物目标清晰,但无法分辨树木、房屋等景物的细节信息;而可见光图像中人物被遮挡,但是可以清楚看到树木、房屋的细节信息。图(d)、(e)、(f)分别为拉普拉斯金字塔、小波变换与双树复小波变换融合后的图像。可以看出图(d)左边模糊,整个图像细节丢失比较严重;图(e)的右下角图像模糊,整个图像对比度较低,没有突显目标特征。图(f)图像右边模糊,房屋边界不清晰。图(c)是本文算法获得的图像,可以看出融合图像既有红外图像中目标突出的优势,也能很好地保留可见光图像中树木、房屋的细节信息,更加符合人眼视觉。

    图 2为Road源图像的融合结果,其中图(a)为红外图像,图(b)为可见光图像,可以看出红外图像中路上的人物目标清晰,但是道路、树木、房屋边界模糊。可见光图像中因为树木遮挡看不到人物目标。图(d)、(e)、(f)分别为拉普拉斯金字塔,小波变换与双树复小波变换融合后的图像。可以看出图(d)房屋边缘模糊,旁边的树木细节丢失较严重;图(e)房屋旁边树木边界不清晰,图(f)图像上方细节丢失严重。图(c)为本文算法获得的融合图像,可以发现融合图像既有红外图像中目标突出的优势,也能很好地保留可见光图像中树木、房屋,道路的细节信息,更加符合人眼视觉。

    图 3为Ship源图像的融合结果,其中图(a)为红外图像,图(b)为可见光图像,可以看出红外图像上方天空边界明显,但是船细节丢失严重,可见光图像船身细节保持完整,但是天空边界丢失。图(d)、(e)、(f)分别为拉普拉斯金字塔,小波变换与双树复小波变换融合后的图像。可以看出图(d)上方边界线较为模糊,图(e)中船的对比度失真,细节丢失严重;图(f)船身细节丢失严重,不符合人眼视觉。图(c)为本文算法将两幅图融合后的结果,可以发现融合图像不仅图像上方边界线比其他方法融合得到的图像更加突出,而且船的细节也更加明显。

    根据以上3组图片,通过主观视觉比较可以看出本文算法在图像融合的成像质量上有着较大优势。为了定量体现本方法的优势,通过客观参数指标比较本方法和其他算法,结果如表 1所示。从表 1中可以看出本文算法在平均梯度(average gradient, AG),信息熵(information entropy, IE),边缘强度(edge intensity, EI)这3个指标中均表现更佳,说明由本文算法相比于其他3种方法,处理所得的融合图像从原图像中获得的信息量最多、拥有更丰富的细节特征、图像边界更加清晰,与主观视觉所获得的结论相符。

    表  1  不同融合方法的客观指标对比
    Table  1.  Comparison of objective indicators between different fusion methods
    Image Object indicators LP Wavelet DTCWT Proposed method
    House AG 0.0190 0.0174 0.0176 0.0220
    IE 7.11 6.55 6.65 7.14
    EI 0.192 0.173 0.178 0.225
    Road AG 0.0190 0.0167 0.0163 0.0198
    IE 7.17 6.36 6.48 7.12
    EI 0.196 0.170 0.171 0.206
    Ship AG 0.00830 0.00750 0.00770 0.0105
    IE 6.02 5.02 5.14 6.30
    EI 0.0850 0.0761 0.0789 0.108
    下载: 导出CSV 
    | 显示表格

    本文提出了一种基于对比度金字塔非对称双边滤波的红外与可见光图像融合方法,通过非对称处理图像的低频信息,算法通用性较强,融合后图像中的目标边界更加突出,保留了更多的图像信息,提高了图像的清晰度。同时进行了3组不同的红外与可见光图像的融合实验,结果表明该方法与拉普拉斯金字塔、小波融合和双树复小波变换方法相比,融合后的图像更加清晰,更符合人眼视觉。最后,平均梯度、信息熵、边缘强度等客观评价指标也说明本文方法比其他方法更具优势,是一种更为有效的图像融合算法。

  • 图  1   House源图像融合结果

    Figure  1.   Fusion results of House source image

    图  2   Road源图像融合结果

    Figure  2.   Fusion results of Road image

    图  3   Ship源图像融合结果

    Figure  3.   Fusion result of ship image

    表  1   不同融合方法的客观指标对比

    Table  1   Comparison of objective indicators between different fusion methods

    Image Object indicators LP Wavelet DTCWT Proposed method
    House AG 0.0190 0.0174 0.0176 0.0220
    IE 7.11 6.55 6.65 7.14
    EI 0.192 0.173 0.178 0.225
    Road AG 0.0190 0.0167 0.0163 0.0198
    IE 7.17 6.36 6.48 7.12
    EI 0.196 0.170 0.171 0.206
    Ship AG 0.00830 0.00750 0.00770 0.0105
    IE 6.02 5.02 5.14 6.30
    EI 0.0850 0.0761 0.0789 0.108
    下载: 导出CSV
  • [1]

    Waxman A M, Gove A N, Fay D A, et al. Color night vision: opponent processing in the fusion of visible and IR imagery[J]. Neural Networks, 1997, 10(1): 1-6. http://www.onacademic.com/detail/journal_1000034198621910_6953.html

    [2]

    XIANG T, YAN L, GAO R. A fusion algorithm for infrared and visible images based on adaptive dual-channel unit-linking PCNN in NSCT domain[J]. Infrared Physics & Technology, 2015, 69: 53-61. http://www.onacademic.com/detail/journal_1000037435766010_b6cd.html

    [3]

    ZHAO J, GAO X, CHEN Y, et al. Multi-window visual saliency extraction for fusion of visible and infrared images[J]. Infrared Physics & Technology, 2016, 76: 295-302. http://smartsearch.nstl.gov.cn/paper_detail.html?id=4f0b14c597a48653341d44502ab3dc75

    [4]

    YAN L, CAO J, Rizvi S, et al. Improving the performance of image fusion based on visual saliency weight map combined with CNN[J]. IEEE Access, 2020, 8(99): 59976-59986. http://ieeexplore.ieee.org/document/9044861

    [5]

    Lewis J J, Robert J. O'Callaghan, Nikolov S G, et al. Pixel- and region-based image fusion with complex wavelets[J]. Information Fusion, 2007, 8(2): 119-130. DOI: 10.1016/j.inffus.2005.09.006

    [6] 赵立昌, 张宝辉, 吴杰, 等. 基于灰度能量差异性的红外与可见光图像融合[J]. 红外技术, 2020, 42(8): 775-782. http://hwjs.nvir.cn/article/id/hwjs202008012

    ZHAO Lichang, ZHANG Baohui, WU Jie, et al. Fusion of infrared and visible images based on gray energy difference[J]. Infrared Technology, 2020, 42(8): 775-782. http://hwjs.nvir.cn/article/id/hwjs202008012

    [7] 崔晓荣, 沈涛, 黄建鲁, 等. 基于BEMD改进的视觉显著性红外和可见光图像融合[J]. 红外技术, 2020, 42(11): 1061-1071. http://hwjs.nvir.cn/article/id/c89c0447-6d07-4a75-99f6-1bf8681cf588

    CUI Xiaorong, SHEN Tao, HUANG Jianlu, et al. Infrared and visible image fusion based on bemd and improved visual saliency[J]. Infrared Technology, 2020, 42(11): 1061-1071. http://hwjs.nvir.cn/article/id/c89c0447-6d07-4a75-99f6-1bf8681cf588

    [8] 李辰阳, 丁坤, 翁帅, 等. 基于改进谱残差显著性图的红外与可见光图像融合[J]. 红外技术, 2020, 42(11): 1042-1047. http://hwjs.nvir.cn/article/id/6e57a6fb-ba92-49d9-a000-c00e7a933365

    LI Chenyang, DING Kun, WENG Shuai, et al. Image fusion of infrared and visible images based on residual significance[J]. Infrared Technology, 2020, 42(11): 1042-1047. http://hwjs.nvir.cn/article/id/6e57a6fb-ba92-49d9-a000-c00e7a933365

    [9]

    ZHOU Z, WANG B, LI S, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 1-13. DOI: 10.1016/j.inffus.2015.11.002

    [10]

    Toet A. Image fusion by a ratio of low-pass pyramid[J]. Pattern Recognition Letters, 1989, 9: 245-253. DOI: 10.1016/0167-8655(89)90003-2

    [11]

    Akerman A. Pyramidal techniques for multisensor fusion[C]// Proceedings of SPIE the International Society for Optical Engineering, 1992, 1828: 124-131.

    [12]

    LI Huafeng, QIU Hongmei, YU Zhengtao, et al. Infrared and visible image fusion scheme based on NSCT and low-level visual features[J]. Infrared Physics and Technology, 2016, 76: 174-184. DOI: 10.1016/j.infrared.2016.02.005

    [13] 彭进业, 王珺, 何贵青, 等. 基于非下采样Contourlet变换和稀疏表示的红外与可见光图像融合方法[J]. 兵工学报, 2013, 34(7): 815-820. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO201307003.htm

    PENG Jinye, WANG Jun, HE Guiqing, et al. Fusion method for visible and infrared images based on non-subsampled Contourlet transform and sparse representation[J]. Acta Armamentarii, 2013, 34(7): 815-820. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO201307003.htm

    [14]

    Pajares G, Jesús Manuel de la Cruz. A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004, 37(9): 1855-1872. DOI: 10.1016/j.patcog.2004.03.010

    [15] 朱攀, 刘泽阳, 黄战华. 基于DTCWT和稀疏表示的红外偏振与光强图像融合[J]. 光子学报, 2017, 46(12): 213-221. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201712028.htm

    ZHU Pan, LIU Zeyang, HUANG Zhanhua. Infrared polarization and intensity image fusion based on dual-tree complex wavelet transform and sparse representation[J]. Acta Photonica Sinica, 2013, 34(7): 815-820. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB201712028.htm

  • 期刊类型引用(13)

    1. 尚宇辉,孟伟,房健,王雪峰. 改进径向基函数插值法的多聚焦图像滤波融合. 计算机仿真. 2024(02): 222-226 . 百度学术
    2. 蒋文娟,刘经天,邵开丽. 激光雷达融合机器视觉的物流分拣多目标视频跟踪. 激光杂志. 2024(06): 221-226 . 百度学术
    3. 张清蓉,陈龙灿,刘庆. 视频前景区域运动目标姿态识别仿真. 计算机仿真. 2024(07): 258-262 . 百度学术
    4. 黄勇斌,郭立强. 基于信息回收和频域金字塔的红外与可见光图像融合算法. 淮阴师范学院学报(自然科学版). 2023(01): 15-20+27 . 百度学术
    5. 陈锦妮,陈宇洋,李云红,拜晓桦. 基于结构与分解的红外光强与偏振图像融合. 红外技术. 2023(03): 257-265 . 本站查看
    6. 张玉昆,王凯娜,杨明彦. 无人机激光雷达遥感图像超分辨率重建方法. 激光杂志. 2023(03): 143-147 . 百度学术
    7. 沈微微,张兵,朱亚楠,李项辰,张书瑜. 基于多尺度梯度域引导滤波的弱光照图像增强技术. 激光杂志. 2023(05): 182-186 . 百度学术
    8. 蒋金鑫. 基于VR的精细动作捕捉算法及其在体育训练中的应用研究. 佳木斯大学学报(自然科学版). 2023(03): 136-140 . 百度学术
    9. 蒋正帅,张强,陈磊. 基于粗-精立体匹配的激光焊接机器人三维视觉定位研究. 激光杂志. 2023(09): 227-232 . 百度学术
    10. 李威,李忠民. 一种基于EASSF的红外与可见光图像视觉保真度融合. 红外技术. 2022(07): 686-692 . 本站查看
    11. 谷学静,刘秋月,马冠征,周士兵. 基于双边滤波和词袋模型的图像匹配算法. 激光杂志. 2022(07): 70-74 . 百度学术
    12. 李永萍,杨艳春,党建武,王阳萍. 基于变换域VGGNet19的红外与可见光图像融合. 红外技术. 2022(12): 1293-1300 . 本站查看
    13. 马恋,马庆禄,付冰琳,王江华. 低照度隧道口视觉融合技术研究. 光子学报. 2022(12): 334-346 . 百度学术

    其他类型引用(14)

图(3)  /  表(1)
计量
  • 文章访问数:  387
  • HTML全文浏览量:  125
  • PDF下载量:  76
  • 被引次数: 27
出版历程
  • 收稿日期:  2021-01-11
  • 修回日期:  2021-02-01
  • 刊出日期:  2021-09-19

目录

/

返回文章
返回