Infrared and Visible Image Fusion Based on CNN with NSCT
-
摘要: 传统红外与可见光融合图像在复杂环境下存在细节缺失,特征单一导致目标模糊等问题,本文提出一种基于卷积神经网络结合非下采样轮廓波变换(non-subsampled contourlet transform,NSCT)的红外与可见光图像进行融合的方法。首先,通过卷积神经网络提取红外与可见光目标特征信息,同时利用NSCT对源图像进行多尺度分解,得到源图像的高频系数与低频系数;其次,结合目标特征图利用自适应模糊逻辑与局部方差对比度分别对源图像高频子带与低频子带进行融合;最后,通过逆NSCT变换得到融合图像并与其他5种传统算法进行对比;实验结果表明,本文方法在多个客观评价指标上均有所提高。Abstract: Traditional infrared and visible fused images suffer from missing details and blurred targets owing to single features in complex environments. This study presents a method for fusing infrared and visible images based on a convolution neural network(CNN) combined with a non-subsampled contourlet transform (NSCT). Firstly, the infrared and visible target feature information is extracted by CNN, and the source image is decomposed by the NSCT at multiple scales to obtain its high-frequency coefficients and low-frequency coefficients. Secondly, the high-frequency sub-bands and low-frequency sub-bands of the source image are fused separately using adaptive fuzzy logic and local variance contrast in combination with the target feature image. Finally, the fused image is obtained by inverse NSCT transformation. We conducted a comparative analysis with five other traditional algorithms. The experimental results show that the proposed method performs better in several objective evaluation indicators.
-
Keywords:
- image fusion /
- convolutional neural network /
- NSCT /
- fuzzy logic
-
0. 引言
太阳光中包含各种波段的光,但是地球大气层中的臭氧层会对220~280 nm波段的紫外光进行吸收,因此该波段的光很难到达地球表面,该波段又被称为“日盲”紫外波段[1]。我们通过220~280 nm紫外光的日盲特性对处于该波段的目标物进行检测成像,能够有效地排除掉阳光对其造成的影响。而高压输电线路由于其自身的故障会在大气中产生电晕,电晕放电会放射出波段为220~280 nm的紫外光[2-6]。传统的电晕探测技术有红外热探测和超声波探测,日盲紫外电晕探测相比于这两种技术有极大的改进:和红外技术相比,在早期就能检测到高压输电线上的电晕放电现象,并且不受周边环境干扰;和超声波技术相比,能够探测的距离长,并且能够检测出电晕放电产生的位置。如今,国内的紫外检测技术飞速发展,以国产碲铯阴极紫外像增强器为核心的紫外成像仪能够对电力设备故障进行实时的检测[7-9]。
1. 光子计数原理
在日盲紫外电晕成像探测过程中,一般是根据显示器上所显示的日盲紫外图像来主观判断电晕放电的程度,这样会带来很大的误差,所以需要通过具体的算法对日盲紫外电晕放电进行量化分析。考虑到日盲紫外电晕信号十分微弱,达到了单光子水平,普通的量化分析方法不能满足要求,因此需要设计合理的光子计数算法来对日盲紫外信号进行量化分析。
图 1是单光子探测的原理图。首先,光信号通过光学镜头进行光学聚焦;然后,前端光电探测器将光信号转化成电信号;其次,将电信号输入至信号处理模块进行处理;最后,后端读出电路模块将处理之后的信号进行输出。其中,因为日盲紫外信号十分微弱,传统的固体探测器件难以达到要求,因此一般会采用真空器件对信号进行光电转换和电子倍增。与此同时,当需要对目标信号强弱进行分析并对其进行成像时,采用像增强器作为光电转换和成像器件[10]。
当日盲紫外光子信号低于3×10-15 W/cm2时,光电转换器就会产生离散脉冲信号,合适的CMOS传感器就能探测到光子信号,所以能够统计日盲紫外信号光子的数量来实现对目标源信号的定量化分析。光子的能量公式为:
$$ E = h\frac{c}{\lambda } $$ (1) 式中:h为普朗克常数;c为真空中的光速;λ为光的波长。其中日盲紫外波段为200~280 nm[3],通过计算得出一个日盲紫外光子的能量为7.1×10-19~1×10-18 J。
日盲紫外光光功率P表示为:
$$ P=N×E $$ (2) 式中:N表示光子数;E表示单光子能量,所以单位时间内通过的光能量表示光流强度。
目标源信号的光功率可以通过统计一个截面上的光子数量来计算得到[4-7]。由于图像传感器靶面尺寸约为1.56 cm2,通过对单位时间内探测到的紫外图像上出现的光斑进行计数统计,就能计算得出一帧图像的光子数以及日盲紫外信号源的光功率。
2. 测试系统
本文所设计的日盲紫外成像系统原理框图如图 2所示,成像系统主要由紫外ICMOS模组、可见光探测器、ARM+FPGA嵌入式处理系统组成。其中,紫外ICMOS模组用来采集日盲紫外微弱信号,并经过模数转换将数字图像信号输入嵌入式平台中;可见光探测器采集可见光图像为日盲紫外信号提供位置信息;ARM+FPGA嵌入式处理系统通过采集紫外数字图像信息,完成图像处理和光子计数算法,并将处理后的图像输出显示。
图 3是所设计的日盲紫外成像系统整机实物图,尺寸(长×宽×高)为244 mm×135 mm×96 mm。其中1为相机窗口,2为LCD液晶屏,3为按键控制面板,4为电源充电口和TF卡槽,5为腕带。
3. 日盲紫外光子计数算法设计
3.1 传统光子计数算法分析
传统的光子计数算法通常为连通域标记光子计数算法,其算法主要思路为:假设单光子经过像增强器倍增以后,在荧光屏上所显示的每一个光斑都未重合。那么每一个光斑就对应了一个光电子,因此只需要对一帧图像中光斑出现的数量,就可以得出一帧图像中日盲紫外光子数。在连通域标记算法中,对经过图像预处理后的紫外图像进行二值化处理,得到一幅二值化图像。每个由灰度255组成的连通域表示为一个光子事件,图 4为连通域标记算法的示意图。
然后,对所采集到的一帧紫外图像进行连通域算法仿真分析,图 5为所采集到的日盲紫外图像和二值化后的图像。
通过对图进行连通域标记光子计数算法仿真,可以得出共有12个光子。通过分析二值化后的图像可知,连通域标记算法将光斑较大和较小的区域都默认为一个光子事件进行统计,这样显然影响了光子计数的准确度,因此需要对此光子计数算法进行改进。
3.2 基于时间相关的光子计数算法设计
弥散圆斑算法是一种从三维空间上统计光子数的方法,由于所设计的高帧频算法,可以使得光斑的变化在时间域上被捕获,因此本文在此基础上添加了时间因素,弥补光斑出现时间的随机性,找出四维空间中的最大点,约束条件如式(3):
$$ \left\{ \begin{gathered} {f_x}'(x,y,z) \leqslant 0 \hfill \\ {f_y}'(x,y,z) \leqslant 0 \hfill \\ {f_t}'(x,y,z) \leqslant 0 \hfill \\ \end{gathered} \right. $$ (3) 由于加入了时间的约束,所以只有找出一段时间内几帧图像同一位置光斑的极大值点才能准确计算光子数。本文采用的CMOS传感器图像输出频率为3 ms每帧,而荧光屏的余晖时间为6 ms,即光斑在荧光屏上的起伏时间为6 ms,因此我们通过连续采样得到3帧图像就能得到光斑的变化范围,如图 6所示,其中a、b、c表示图像中光斑的灰度值。
如图 6所示,中间一帧图像中b灰度值最大,可以将b记作一个光子数,因此只要中间帧图像中光斑的灰度值大于前后帧图像光斑的灰度值,就能将其记为一个光子数。
这样就能统计出一帧图像的光子数[10]:
$$ n = \sum\limits_{k = 1}^f {\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {Y(i,j,k)} } } $$ (4) 式中:f为日盲紫外成像探测器的帧频;k为第k帧图像;(i, j)为二维空间坐标;Y(i, j, k)为四维空间中的极大值点。由于日盲紫外成像探测器能达到300帧/s的帧频,两帧之间的变化时间较小,因此Y(i, j, k)又能满足:
$$ B(i,j,k)≥B(i±i′,j±j′,k±k′) $$ (5) 式中:B(i, j, k)为第k帧(i, j)点的灰度值。由上式可见,极大值点Y(i, j, k)的约束条件为:B(i, j)在i′×j′矩阵像素中具有最大的灰度值,且在前后k′帧的同一位置的灰度值也是最大的。根据日盲紫外成像探测器的输出帧频,这里k′=1,同时i′×j′矩阵可设定为3×3矩阵或5×5矩阵。
4. 实验流程与不确定性度分析
4.1 光子计数算法的仿真实验分析
首先,本文用日盲紫外成像探测器采集图像,然后运用Matlab软件分别对两种算法进行仿真,比较仿真结果来判断时间相关的光子计数算法能否提高计数精度。
首先选用260 nm波段的紫外光源,然后日盲紫外成像探测器的增益电压调节为2.5 V,调节紫外光源光功率密度,从3×10-19 W/cm2每次往上增加一个数量级,采集3组不同光强的实验图像,每组实验记录3幅图像,如图 7所示。
运用MATLAB软件对采集的图像仿真,得出的光子数如表 1所示。表 1中的两种算法为连通域计数算法和基于时间相关算法。
表 1 两种算法光子计数统计表Table 1. Photon counting statistic table of two algorithmConnected domain labeling algorithm Dispersion circular algorithm Group 1 7 6 Group 2 78 78 Group 3 88 291 结果显示,当信号源很弱时,光子就会分散分布,因此两种算法的计数结果比较相近。在增强紫外光源的光功率后,光斑会重叠,并且连通域标记光子计数算法得出的光子数量没有太大变化,而本文所设计的算法随着信号的增强,计数值不断增加,由此可知,弥散圆斑算法相对于连通域计数算法更加精确,可对日盲紫外单光子进行准确统计。
4.2 基于日盲紫外成像系统的光子计数算法实验及分析
通过对两种算法的仿真分析可知,本文所设计的光子计数算法更具准确性,但由于所设计成像系统的资源和速度限制,我们将日盲紫外图像的14 bit数据压缩成8 bit数据进行处理,因此会使得计数精度上有所偏差,所以通过对紫外光源的实验来验证硬件实现的效果。
实验采用氘灯作为日盲紫外目标源进行光子计数实验测试,紫外ICMOS模组的增益电压保持不变,进行了如下3组实验:
第一组,关闭日盲紫外信号源,实验结果如图 8所示。
通过采集3帧图像,所计算的光子数一直为0,说明所设计的成像系统暗计数良好。
第二组,打开氘灯光源,并调节光源强度到最弱,采集到的图像如图 9所示。
第三组,输出光源光功率密度加到1×10-18 W/cm2,采集到的图像如图 10所示。
然后,我们利用Matlab对每组连续的3帧图像进行所设计的光子计数算法仿真,仿真结果与FPGA计算的结果如表 2所示。
表 2 四组光子计数实验结果Table 2. Results of four groups of photon counting experimentsGroup1 Group 2 Group 3 FPGA output result 0 24 141 Matlab simulation result 0 23 149 通过表 2可知,硬件实验的光子计数算法与仿真结果相近,证明了所设计的基于时间域的弥散圆斑光子计数算法在成像系统中可以硬件实现,并且效果良好。
5. 结论
日盲紫外电晕探测是近年来一种新型的电晕探测方式,但是紫外图像单靠人眼无法精确地判断电晕信号的强弱,因此本文研究了日盲紫外光子计数算法,通过对连通域标记算法和弥散圆斑算法进行分析提出了基于时间相关算法,然后使用Matlab对两种算法进行了实验仿真,结果显示基于时间相关算法对光子计数更加准确,最后,通过实验验证所设计的算法可以在成像系统中的FPGA硬件平台上实现,并且实现的效果良好,能够用于紫外成像仪中对信号进行量化分析。
-
图 3 红外图像“Nato_camp”及多种方法提取显著性图像:(a) 红外图像“Nato_camp”;(b) 图像“Nato_camp”标准分割图;(c) FT方法;(d) AC方法;(e) LC方法;(f) CNN方法
Figure 3. Infrared image ''Nato_camp'' and images after saliency extraction by various methods: (a) Infrared image "Nato_camp"; (b) Standard segmentation of image "Nato_camp"; (c) FT method; (d) AC method; (e) LC method; (f) CNN method
图 4 红外图像“Kaptein”及多种方法提取显著性图像:(a) 红外图像“Kaptein”;(b) 图像“Kaptein”标准分割图;(c) FT方法;(d) AC方法;(e) LC方法;(f) CNN方法
Figure 4. Infrared image ''Kaptein'' and images after saliency extraction by various methods: (a) Infrared image "Kaptein"; (b) Standard segmentation of image "Kaptein"; (c) FT method; (d) AC method; (e) LC method; (f) CNN method
图 6 “Nato_camp”红外和可见光图像以及融合结果:(a) 红外图像;(b) 可见光图像;(c) LP方法;(d) DWT方法;(e) BEMD方法;(f) NSST方法;(g) NSCT方法;(h) 本文方法
Figure 6. ''Nato_camp'' infrared and visible images and fusion results: (a) Infrared image; (b) Visible image; (c) LP method; (d) DWT method; (e) BEMD method; (f) NSST method; (g) NSCT method; (h) Proposed method
图 7 “Kaptein”红外和可见光图像以及融合结果:(a) 红外图像;(b) 可见光图像;(c) LP方法;(d) DWT方法;(e) BEMD方法;(f) NSST方法;(g) NSCT方法;(h) 本文方法
Figure 7. ''Kaptein'' infrared and visible images and fusion results: (a) Infrared image; (b) Visible image; (c) LP method (d) DWT method; (e) BEMD method; (f) NSST method; (g) NSCT method; (h) Proposed method
图 8 “iron”红外和可见光图像以及融合结果:(a) 红外图像;(b) 可见光图像;(c) LP方法;(d) DWT方法;(e) BEMD方法;(f) NSST方法;(g) NSCT方法;(h)本文方法
Figure 8. ''iron'' infrared and visible images and fusion results: (a) Infrared image; (b) Visible image; (c) LP method (d) DWT method; (e) BEMD method; (f) NSST method; (g) NSCT method; (h) Proposed method
表 1 目标显著性提取评价指标MAE
Table 1 Target significance extraction evaluation index MAE
Method AC FT LC CNN MSE1 1429.6117 1816.0338 1377.7657 9.8357 MSE2 672.0769 1379.5997 1965.2603 17.2382 表 2 红外与可见光图像融合效果评价
Table 2 Infrared and visible image fusion effect evaluation
Image Image fusion method IE AG SF MI CEN “Nato_camp” LP 6.6747 5.5365 15.9373 1.7365 1.4858 DWT 6.9908 6.6575 17.4658 1.6712 0.6218 BEMD 6.6029 6.2838 17.1804 1.3671 1.7880 NSST 6.8419 5.8138 16.7266 1.3348 1.5568 NSCT 6.6224 6.3133 17.3085 2.0859 0.3409 Ours 7.1934 4.7142 17.5647 2.0883 0.3206 “Kaptein” LP 6.7174 4.0659 12.8846 3.2774 1.3173 DWT 7.1419 6.2009 18.9346 3.8891 1.0452 BEMD 6.7497 5.9790 19.4699 3.0136 1.2275 NSST 6.8063 4.4414 15.8489 3.9370 1.1409 NSCT 6.9281 6.3012 19.2932 3.6070 1.6858 Ours 7.2729 4.5076 20.1209 3.9387 1.0457 “iron” LP 6.4638 7.1542 20.2285 3.1355 0.5064 DWT 6.6377 11.7327 33.4574 3.3785 0.6087 BEMD 6.5765 9.4525 23.3567 3.4273 0.5408 NSST 6.7624 14.7945 39.4278 3.4058 0.5075 NSCT 6.7352 15.6254 40.4253 3.1668 0.4772 Ours 6.7648 14.7857 40.8547 3.8173 0.4117 -
[1] MA J Y, MA Yong. Infrared and visible image fusion methods and applications: a survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004
[2] 董安勇, 杜庆治. 基于卷积神经网络的红外与可见光图像融合[J]. 红外技术, 2020, 42(7): 660-669. http://hwjs.nvir.cn/article/id/hwjs202007009 DONG Anyong, DU Qingzhi. Infrared and visible image fusion based on vonvolutional neural network[J]. Infrared Technology, 2020, 42(7): 660-669. http://hwjs.nvir.cn/article/id/hwjs202007009
[3] 杨孙运, 奚峥皓, 汪汉东, 等. 基于NSCT和最小化-局部平均梯度的图像融合[J]. 红外技术, 2021, 43(1): 13-20. http://hwjs.nvir.cn/article/id/144252d1-978c-4c1e-85ad-e0b8d5e03bf6 YANG Sunyun, XI Zhenghao, WANG Handong, et al. Image fusion based on NSCT and minimum-local mean gradient[J]. Infrared Technology, 2021, 43(1): 13-20. http://hwjs.nvir.cn/article/id/144252d1-978c-4c1e-85ad-e0b8d5e03bf6
[4] ZHANG Shuang, LIU Feng. Infrared and visible image fusion based on non-subsampled shearlet transform, regional energy, and co-occurrence filtering[J]. Electronics Letters, 2020, 56(15): 761-764. DOI: 10.1049/el.2020.0557
[5] LIU Yu, LIU Shuping, WANG Zengfu. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164. DOI: 10.1016/j.inffus.2014.09.004
[6] CUI Y, DU H, MEI W. Infrared and visible image fusion using detail enhanced channel attention network[J]. IEEE Access, 2019, 7: 182185-182197. DOI: 10.1109/ACCESS.2019.2959034
[7] XIA Jingming, YI Lu. Intelligent fusion of infrared and visible image data based on convolutional sparse representation and improved pulse-coupled neural network[J]. CMC-Computers Materials & Continua, 2021, 67(1): 613-624.
[8] 肖中杰. 基于NSCT红外与可见光图像融合算法优化研究[J]. 红外技术, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010 XIAO Zhongjie. Improved infrared and visible light image fusion algorithm based on NSCT[J]. Infrared Technology, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010
[9] MA Jinlei, ZHOU Zhiqiang. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics and Technology, 2017, 82: 8-17. DOI: 10.1016/j.infrared.2017.02.005
[10] 傅志中, 王雪, 李晓峰, 等. 基于视觉显著性和NSCT的红外与可见光图像融合[J]. 电子科技大学学报, 2017, 46(2): 357-362. DOI: 10.3969/j.issn.1001-0548.2017.02.007 FU Zhizhong, WANG Xue, LI Xiaofeng, et al. Infrared and visible image fusion based on visual saliency and NSCT[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(2): 357-362. DOI: 10.3969/j.issn.1001-0548.2017.02.007
[11] 闫利, 向天烛. NSCT域内结合边缘特征和自适应PCNN的红外与可见光图像融合[J]. 电子学报, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002 YAN Li, XIANG Tianzhu. Fusion of infrared and visible images based on edge feature and adaptive PCNN in NSCT domain[J]. Acta Electronica Sinica, 2016, 44(4): 761-766. DOI: 10.3969/j.issn.0372-2112.2016.04.002
[12] 陈震, 杨小平. 基于补偿机制的NSCT域红外与可见光图像融合[J]. 仪器仪表学报, 2016, 37(4): 860-870. DOI: 10.3969/j.issn.0254-3087.2016.04.019 CHEN Zhen, YANG Xiaoping. Infrared and visible image fusion based on the compensation mechanism in NSCT domain[J]. Chinese Journal of Scientific Instrument, 2016, 37(4): 860-870. DOI: 10.3969/j.issn.0254-3087.2016.04.019
[13] 周渝人, 耿爱辉, 张强. 基于压缩感知的红外与可见光图像融合[J]. 光学精密工程, 2015, 23(3): 855-863. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM201503032.htm ZHOU Yuren, GENG Aihui, ZHANG Qiang. Fusion of infrared and visible images based on compressive sensing[J]. Optics and Precision Engineering, 2015, 23(3): 855-863. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM201503032.htm
[14] REN Long, PAN Zhibin. Infrared and visible image fusion based on edge-preserving guided filter and infrared feature decomposition[J]. Signal Processing, 2021, 186: 108108.
[15] FU Zhizhong, WANG Xue. Infrared and visible images fusion based on RPCA and NSCT[J]. Infrared Physics and Technology, 2016, 77: 114-123.
-
期刊类型引用(1)
1. 杨晓超,郝慧良. 矿用电缆放电监测系统研究设计. 中国煤炭. 2024(S1): 406-410 . 百度学术
其他类型引用(1)