Infrared and Visible Image Fusion Using Attention- Based Generative Adversarial Networks
-
摘要: 目前,基于深度学习的融合方法依赖卷积核提取局部特征,而单尺度网络、卷积核大小以及网络深度的限制无法满足图像的多尺度与全局特性。为此,本文提出了红外与可见光图像注意力生成对抗融合方法。该方法采用编码器和解码器构成的生成器以及两个判别器。在编码器中设计了多尺度模块与通道自注意力机制,可以有效提取多尺度特征,并建立特征通道长距离依赖关系,增强了多尺度特征的全局特性。此外,构建了两个判别器,以建立生成图像与源图像之间的对抗关系,保留更多细节信息。实验结果表明,本文方法在主客观评价上都优于其他典型方法。Abstract: At present, deep learning-based fusion methods rely only on convolutional kernels to extract local features, but the limitations of single-scale networks, convolutional kernel size, and network depth cannot provide a sufficient number of multi-scale and global image characteristics. Therefore, here we propose an infrared and visible image fusion method using attention-based generative adversarial networks. This study uses a generator consisting of an encoder and decoder, and two discriminators. The multi-scale module and channel self-attention mechanism are designed in the encoder, which can effectively extract multi-scale features and establish the dependency between the long ranges of feature channels, thus enhancing the global characteristics of multi-scale features. In addition, two discriminators are constructed to establish an adversarial relationship between the fused image and the source images to preserve more detailed information. The experimental results demonstrate that the proposed method is superior to other typical methods in both subjective and objective evaluations.
-
0. 引言
近年来,日益加剧的雾、霾天气严重干扰了户外视觉采集系统的正常工作与运行,降低了所获图像、视频的信息质量。此类天气情况下采集得到的图像、视频往往存在画面模糊、对比度低、细节丢失严重等问题[1-3]。目前面向白天降质环境的去雾算法研究已经日益成熟,而对夜间降质图像的去雾算法研究则相对较少。因此,研究如何在夜间雾、霾场景下对降质图像进行有效去雾,具有一定的研究意义和应用价值。
为实现夜间降质图像的有效去雾,Zhang J.[4]提出了一种基于最大反射率先验理论的快速夜间去雾算法,利用最大反射率先验理论来对夜间降质场景下的大气光分布进行有效估计,然后结合夜间去雾模型实现去雾,该算法去雾效果较好、纹理损失少,但去雾图像存在一定颜色失真; 同时,Li Y.[5]提出了一种全新的大气光模型用于夜间图像去雾,通过线性计算剥离降质图像的辉光项,利用局部编码估算大气光分布,结合散射模型实现去雾,该算法具备一定的去雾效果,但去雾图像存在一定的纹理细节损失; 而Yu T.[6]则提出了一种结合像素级alpha混合算法的夜间去雾算法,以亮度感知权值为导向,对夜间降质场景下的非光源与光源区域的透射率估计进行有效融合,利用信号差分引导滤波来有效估算大气光分布,结合大气散射模型进行去雾,该算法去雾效果较好、颜色一致性强,但场景亮度较低。
针对现有夜间降质图像去雾算法存在的颜色失真、纹理损失、亮度低等缺陷,本文在He K.M[7]的暗通道先验去雾算法的基础上,提出了一种采用暗态点光源模型的夜间去雾算法,利用最小值滤波、伽马变换等算法建立暗态点光源模型,然后使用暗态点光源模型与联合双边滤波等算法有效估计夜间降质图像的大气光分布、透射率分布,最后结合大气散射模型实现去雾。实验结果表明,该算法处理速度快、去雾效果好,有效减少了去雾图像的颜色失真、纹理损失、亮度低等缺陷。
1. 基于暗通道先验理论去雾算法
在数字图像处理领域,McCartney的大气散射模型被广泛应用于去雾处理,其数学表达式为:
$$ I(x, y) = J(x, y)t(x, y) + A[1 - t(x, y)] $$ (1) 式中: (x, y)为图像的横纵坐标; I(x, y)为降质图像; J(x, y)为去雾图像; t(x, y)为透射率分布; A为大气光值。推导数学公式(1),即可得到透射率分布t(x, y)的数学表达式为:
$$ t\left( {x,y} \right) = \frac{{1 - I\left( {x,y} \right)/A}}{{1 - J\left( {x,y} \right)/A}} $$ (2) He K. M.[7]等人在对不包含天空区域的无雾图像观察统计中发现,无雾图像某一颜色通道下的像素值总是接近于零的现象。基于该观察结果,他提出了暗通道先验理论,即对于任意无雾图像的非天空区域,至少存在一个颜色通道下的像素值是接近于零的,该理论的数学表达式为:
$$ {J_{\rm{d}}}\left( {x,y} \right) = \mathop {\min }\limits_{x,y \in \Omega \left( {x,y} \right)} \left[ {\mathop {\min }\limits_{c \in \left\{ {r,g,b} \right\}} {J_{\rm{c}}}\left( {x,y} \right)} \right] \to 0 $$ (3) 式中: Jd(x, y)为J(x, y)的暗通道图像; Jc(x, y)为颜色通道各自对应的灰度值; Ω(x, y)为滤波窗口。假设大气光值已知,则透射率分布t(x, y)的获取方式为:
$$ t\left( {x,y} \right) = 1 - \omega \left[ {{I_{\rm{d}}}\left( {x,y} \right)/A} \right] $$ (4) 式中: Id(x, y)为I(x, y)的暗通道图像; ω为雾气权值系数,用作在去雾图像中保留少量雾气以保持图像的视觉真实性,一般取作0.95,A为大气光值,一般取为I(x, y)像素值降序排列前0.1%的像素平均值。
结合求得的透射率分布t(x, y)、大气光值A以及公式(1),即可得到去雾图像:
$$ J\left( {x,y} \right) = \frac{{I\left( {x,y} \right) - A}}{{t\left( {x,y} \right)}} + A $$ (5) 该算法对白天雾、霾天气下的降质图像具备较好的去雾效果,但直接应用于夜间降质图像,则会因为降质场景亮度过低等因素,出现算法失效的情况。
2. 本文去雾算法
为解决夜间降质图像去雾算法存在的颜色失真、纹理损失、亮度低等缺陷,本文基于He K. M.[7]的暗通道先验去雾算法,提出了一种采用暗态点光源模型的夜间去雾算法。算法流程为: 首先,利用最小值滤波、伽马变换、高斯滤波算法建立暗态点光源模型,利用最大值滤波获取降质图像I(x, y)的亮度分布Ib(x, y); 再使用暗态点光源模型、亮度分布Ib(x, y)和联合双边滤波算法有效估计降质图像I(x, y)的大气光分布A(x, y); 然后根据已知的大气光分布A(x, y)和暗通道图像Id(x, y)获取降质图像的透射率分布t(x, y),并利用联合双边滤波对其进行纹理细化; 最后结合改进后的大气散射模型进行去雾处理,并利用限制对比度直方图均衡化算法进行图像增强。算法实现过程如图 1所示。
2.1 暗态点光源模型
为有效估计夜间雾、霾天气下降质图像的大气光分布A(x, y),本文提出了一种暗态点光源模型。暗态点光源模型的获取流程如图 2(a)所示: 首先,对降质图像I(x, y)进行最小值滤波获取暗通道图像Id(x, y); 然后用伽马变换对暗通道图像Id(x, y)进行灰度矫正,处理公式如下:
$$ {V_{\rm{p}}}\left( {x, y} \right) = \alpha \cdot {\left[ {\mathop {\min }\limits_{x, y \in \Omega \left( {x, y} \right)} I\left( {x, y} \right)} \right]^\gamma } $$ (6) 式中: α称为灰度缩放系数,用于整体拉伸图像灰度,通常取值为1;γ为伽马值,伽马变换可以有效增强图像的明暗对比,进一步增强暗通道图像的明暗对比,进而有效地分割降质图像的光源区域与非光源区域; Vp(x, y)为暗态点光源模型,对其再进行高斯滤波即可得到估算大气光分布所需的最终点光源模型。多数伽马变换都是手动设置伽马系数,为全局变量,对于夜间图像的增强效果并不理想。所以本文采用文献[8]中的方法,首先,采用多尺度高斯函数的方法来提取光照不均匀场景中的光照分量,对各个光照分量进行加权,得到光照分量的估计值。然后利用图像的光照分量的分布特性自适应地调整二维伽马函数的参数,提高光照不均匀图像整体质量。
在获取了暗态点光源模型Vp(x, y)后,即可根据公式(7)获取降质图像I(x, y)的亮度分布Ib(x, y):
$$ {I_{\rm{b}}}\left( {x, y} \right) = \mathop {\max }\limits_{c \in \left\{ {r, g, b} \right\}} {J_{\rm{b}}}\left( {x, y} \right) $$ (7) 考虑到夜间雾、霾天气情况下,降质场景的光源多为点光源,与白天的面光源不同,点光源的照射条件决定了夜间去雾的主要对象为点光源光线覆盖范围内的降质场景。如果简单地将亮度分布作为大气光分布用于降质图像的去雾,会导致去雾图像出现图像失真、去雾场景过暗等问题,所以如何得到一个合理的点光源模型,用于大气光分布的估计,成为了夜间去雾算法的一个难点。
由于联合双边滤波器具备与引导滤波器相同的滤波效果,即可通过输入引导图像对目标图像进行引导滤波,而且滤波后的图像具备更好的边缘保持效果。因此本文将暗态点光源模型Vp(x, y)作为目标图像,将亮度分布Ib(x, y)作为引导图像,利用联合双边滤波器的引导特性[9],模拟生成夜间点光源的光线照射路线,从而对夜间的大气光分布进行有效估计,处理过程如图 2(b)所示。根据公式(7)得到降质图像亮度分布Ib(x, y),再对亮度分布Ib(x, y)进行高斯滤波处理,最后以暗态点光源模型Vp(x, y)为目标图像、以亮度分布Ib(x, y)为引导图像进行联合双边滤波处理,即可得到最终所需的大气光分布A(x, y)。此时的大气光分布A(x, y)中所保留的亮度信息主要为点光源及其光线覆盖范围内的亮度信息,将该大气光分布用作后续降质图像的去雾处理,可以有效解决图像失真、去雾场景过暗等问题。
2.2 透射率分布的精确估计
根据2.1节得到的大气光分布A(x, y),结合暗通道图像Id(x, y)即可改进透射率估计公式(4)为:
$$ t'\left( {x,y} \right) = 1 - \omega \left[ {{I_{\rm{d}}}\left( {x,y} \right)/A\left( {x,y} \right)} \right] $$ (8) 式中: t′(x, y)为I(x, y)的粗透射率分布; ω为雾气权值系数; Id(x, y)为I(x, y)的暗通道图像; A(x, y)为I(x, y)的大气光分布。粗透射率分布的处理结果如图 3(b)所示,由图可知,此时的粗透射率分布t′(x, y)纹理细节损失严重,若用该透射率分布对降质图像(图 3(a))去雾,处理结果会因为透射率的不准确估计,而存在纹理细节缺失、光晕效应、颜色失真等缺陷。考虑到联合双边滤波具备细化图像纹理的作用,本文利用其对粗透射率t′(x, y)进行精细化处理,得到的细透射率分布如图 3(c)所示,记作t"(x, y)。该透射率分布估值准确、细节明显,可以有效解决纹理细节缺失、光晕效应、颜色失真等缺陷。
2.3 夜间降质图像去雾
在得到细透射率分布t"(x, y)以及大气光分布A(x, y)以后,即可对公式(5)进行去雾改进处理得到:
$$ J\left( {x, y} \right) = \frac{{I\left( {x, y} \right) - A\left( {x, y} \right)}}{{\max \left[ {t''\left( {x, y} \right), {t_0}} \right]}} + A\left( {x, y} \right) $$ (9) 式中: J(x, y)为去雾图像; I(x, y)为降质图像; A(x, y)为大气光分布; t"(x, y)为细透射率分布; t0为防止分母为零而引入的系数,本文取作0.1。
3. 实验结果与分析
本文算法的所有实验均在CPU为Intel(R) Core i7-9700K @3.60 GHz、内存为32 GB、操作系统为Windows 10的计算机上运行所得,开发语言为C++和OpenCV 3.4.6,开发软件平台为Visual Studio 2019,测试软件平台为Matlab 2018。实验所用的夜间降质图像为本实验室自行建立的降质图库。为验证本文算法的去雾效果和处理速度,本文将从主观对比和客观对比两个角度进行实验对比。
3.1 主观对比
本文从降质图库中随机选取了4幅具有夜间雾、霾天气代表性的降质图像,分别采用不同的夜间去雾算法进行去雾处理,得到的实验结果如图 4所示。
由图 4可知,相比于白天有雾图像的去雾算法和专门针对夜间有雾图像的去雾算法,本文所提的算法清晰化效果比较明显,在对比度、色彩和细节信息等方面都做了适度增强。
3.2 客观对比
为了进一步对比不同算法的处理效果,本文使用信息熵(Information Entropy, IE)、平均梯度(Average Gradient,AG)和对比度(Contrast)对图 4中4张图各个算法的处理结果进行客观评价,如表 1所示。可以看出,经过本文算法处理过后的图像的质量普遍有较为明显的改善,主要表现在信息熵值的提高,说明处理后的夜间图像所包含的信息量比较丰富; 平均梯度的提升说明处理后的夜间图像在清晰度提高了; 对比度的提高说明有效增强了夜间图像的明暗对比度。由此可见,本文所提算法在夜间有雾图像的去雾效果上取得了比较好的结果。
Index Algorithm Fig. 1 Fig. 2 Fig. 3 Fig. 4 IE HE[7] 7.3539 6.9861 6.9447 6.5511 Zhang[4] 7.0074 6.6843 6.8380 6.4599 Li[5] 6.2890 5.8723 6.4657 5.4543 Proposed 7.5694 6.7746 7.0220 6.6502 AG HE[7] 0.0646 0.0693 0.0521 0.0415 Zhang[4] 0.0491 0.0519 0.0471 0.0311 Li[5] 0.0272 0.0276 0.0288 0.0161 Proposed 0.0653 0.0707 0.0535 0.0457 Contrast HE[7] 0.1745 0.1709 0.1346 0.1059 Zhang[4] 0.1565 0.1622 0.1528 0.1217 Li[5] 0.1129 0.0913 0.1183 0.0875 Proposed 0.1823 0.1754 0.1562 0.1238 4. 结语
为有效解决现有夜间降质图像去雾算法存在的颜色失真、纹理损失、亮度低等缺陷,本文提出了一种采用暗态点光源模型的夜间去雾算法。该算法通过引入暗态点光源模型,结合联合双边滤波、高斯滤波、最大值、最小值滤波等算法对夜间降质场景的大气光分布、透射率分布进行了有效估计,最后改进大气散射模型对夜间降质图像进行有效去雾。实验结果表明,该算法的处理速度快、夜间去雾效果好,能够有效减少去雾图像的颜色失真、纹理损失,且去雾场景亮度得到一定程度的保留,同时在对比度、平均梯度以及信息熵上均有一定提高,可应用于城市交通监控系统的夜间去雾。
-
表 1 生成器参数设置
Table 1 Parameter setting of the generator
Parts Layer Kernel size/stride Input channel/ Output channel, activation Encoder C0 3×3/1 1/16, LeakyReLU Res2Net1 - 16/32, LeakyReLU Res2Net2 - 32/64, LeakyReLU Decoder C1 3×3/1 128/64, LeakyReLU C2 3×3/1 64/32, LeakyReLU C3 3×3/1 32/16, LeakyReLU C4 3×3/1 16/1, Tanh 表 2 判别器参数设置
Table 2 Parameter setting of the discriminators
Layer Kernel size/stride Input channel/Output channel, activation L1 3×3/2 1/16, LeakyReLU L2 3×3/2 16/32, LeakyReLU L3 3×3/2 32/64, LeakyReLU L4 3×3/2 64/128, LeakyReLU L5(FC(1)) - 128/1, Tanh 表 3 消融实验的定量比较
Table 3 Quantitative analysis of ablation experiment
Methods EN SD CC SCD MS-SSIM VIFF No-CA 7.2439 42.6525 0.6305 1.7705 0.9221 0.5149 No-Res2Net 7.3372 46.2277 0.6295 1.8453 0.9227 0.5572 Ours 7.3596 46.9659 0.6290 1.8494 0.9278 0.5683 表 4 时间计算率比较
Table 4 Comparison of time efficiency
Methods TNO Roadscene CVT 1.33 0.92 ASR 332.21 165.23 WLS 2.23 1.17 DenseFuse 0.11 0.08 FusionGan 1.98 1.02 IFCNN 0.08 0.07 Ours 0.23 0.19 -
[1] MA J, MA Y, LI C. Infrared and visible image fusion methods and applications: a survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004
[2] LI S, KANG X, FANG L, et al. Pixel-level image fusion: a survey of the state of the art[J]. Information Fusion, 2017, 33: 100-112. DOI: 10.1016/j.inffus.2016.05.004
[3] LIU Y, CHEN X, WANG Z, et al. Deep learning for pixel-level image fusion: Recent advances and future prospects[J]. Information Fusion, 2018, 42: 158-173. DOI: 10.1016/j.inffus.2017.10.007
[4] LI S, YANG B, HU J. Performance comparison of different multi-resolution transforms for image fusion[J]. Information Fusion, 2011, 12(2): 74-84. DOI: 10.1016/j.inffus.2010.03.002
[5] ZHANG Q, LIU Y, Rick S Blum, et al. Sparse representation based multi-sensor image fusion for multi-focus and multi-modality images: a review[J]. Information Fusion, 2018, 40: 57-75. DOI: 10.1016/j.inffus.2017.05.006
[6] ZHANG Xiaoye, MA Yong, ZHANG Ying, et al. Infrared and visible image fusion via saliency analysis and local edge-preserving multi-scale decomposition[J]. Journal of the Optical Society of America A Optics Image Science & Vision, 2017, 34(8): 1400-1410.
[7] YU L, LIU S, WANG Z. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164. DOI: 10.1016/j.inffus.2014.09.004
[8] HAN J, Pauwels E J, P De Zeeuw. Fast saliency-aware multimodality image fusion[J]. Neurocomputing, 2013, 111: 70-80. DOI: 10.1016/j.neucom.2012.12.015
[9] YIN Haitao. Sparse representation with learned multiscale dictionary for image fusion[J]. Neurocomputing, 2015, 148: 600-610. DOI: 10.1016/j.neucom.2014.07.003
[10] WANG Zhishe, YANG Fengbao, PENG Zhihao, et al. Multi-sensor image enhanced fusion algorithm based on NSST and top-hat transformation[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(23): 4184-4190. DOI: 10.1016/j.ijleo.2015.08.118
[11] CUI G, FENG H, XU Z, et al. Detail preserved fusion of visible and infrared images using regional saliency extraction and multi-scale image decomposition[J]. Optics Communications, 2015, 341: 199-209. DOI: 10.1016/j.optcom.2014.12.032
[12] LI Q, LU L, LI Z, et al. Coupled GAN with relativistic discriminators for infrared and visible images fusion[J]. IEEE Sensors Journal, 2021, 21(6): 7458-7467. DOI: 10.1109/JSEN.2019.2921803
[13] LIU Y, CHEN X, CHENG J, et al. Infrared and visible image fusion with convolutional neural networks[J]. International Journal of Wavelets, Multiresolution and Information Processing, 2018, 16(3): 1850018. DOI: 10.1142/S0219691318500182
[14] LI H, WU X J. DenseFuse: a fusion approach to infrared and visible images[J]. IEEE transactions on Image Processing: a Publication of the IEEE Signal Processing Society, 2019, 28(5): 2614-2523. DOI: 10.1109/TIP.2018.2887342
[15] XU H, MA J, JIANG J, et al. U2Fusion: A unified unsupervised image fusion network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 44(1): 502-518.
[16] HOU R. VIF-Net: an unsupervised framework for infrared and visible image fusion[J]. IEEE Transactions on Computational Imaging, 2020, 6: 640-651. DOI: 10.1109/TCI.2020.2965304
[17] HUI L A, XJW A, JK B. RFN-Nest: An end-to-end residual fusion network for infrared and visible images[J]. Information Fusion, 2021, 73: 72-86. DOI: 10.1016/j.inffus.2021.02.023
[18] MA J, WEI Y, LIANG P, et al. FusionGAN: a generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26. DOI: 10.1016/j.inffus.2018.09.004
[19] JM A, Pl A, WEI Y A, et al. Infrared and visible image fusion via detail preserving adversarial learning[J]. Information Fusion, 2020, 54: 85-98. DOI: 10.1016/j.inffus.2019.07.005
[20] MA J, XU H, JIANG J, et al. DDcGAN: A dual-discriminator conditional generative adversarial network for multi-resolution image fusion[J]. IEEE Transactions on Image Processing, 2020, 29: 4980-4995. DOI: 10.1109/TIP.2020.2977573
[21] GAO S, CHENG M M, ZHAO K, et al. Res2Net: A new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(2): 652-662. DOI: 10.1109/TPAMI.2019.2938758
[22] FU J, LIU J, TIAN H, et al. Dual attention network for scene segmentation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR), 2020: DOI: 10.1109/cvpr.2019.00326.
[23] Nencini F, Garzelli A, Baronti S, et al. Alparone, remote sensing image fusion using the curvelet transform[J]. Information Fusion, 2007, 8(2): 143-156. DOI: 10.1016/j.inffus.2006.02.001
[24] LIU Y, WANG Z. Simultaneous image fusion and denoising with adaptive sparse representation[J]. Image Processing Iet. , 2014, 9(5): 347-357.
[25] MA J, ZHOU Z, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.
[26] YU Z A, YU L B, PENG S C, et al. IFCNN: A general image fusion framework based on convolutional neural network[J]. Information Fusion, 2020, 54: 99-118. DOI: 10.1016/j.inffus.2019.07.011
-
期刊类型引用(17)
1. 刘志海,刘飞熠,刘东阳,韩文钰,刘磊. 基于HSV色彩空间及改进二维伽马函数的井下图像增强算法. 煤炭技术. 2024(01): 203-206 . 百度学术
2. 牛振华,邢延超,林英超,王晨轩. 基于NSCT结合显著图与区域能量的红外与可见光图像融合. 红外技术. 2024(01): 84-93 . 本站查看
3. 王振,刘磊. 融合彩色模型空间的电力设备红外图像增强. 红外技术. 2024(02): 225-232 . 本站查看
4. 李建康,韩帅,陈没,廖思卓,王道累,赵文彬. 基于深度学习的输电通道入侵物体识别方法研究. 电力信息与通信技术. 2024(02): 34-39 . 百度学术
5. 高敏钦. 基于Retinex和HSV颜色空间的低照度图像增强算法. 广东轻工职业技术学院学报. 2024(01): 9-13 . 百度学术
6. 陈鑫,钱旭,周佳加,武杨. 基于水下场景先验的水下图像增强方法研究. 应用科技. 2024(02): 56-65 . 百度学术
7. 周辉奎,章立,胡素娟. 改进直方图匹配和自适应均衡的水下图像增强. 红外技术. 2024(05): 532-538 . 本站查看
8. 董良振,田建艳,杨胜强,陈海滨. 基于光照校正和图像融合的零件表面图像增强. 计算机工程. 2024(06): 245-254 . 百度学术
9. 陈从平,张力,江高勇,凌阳,戴国洪. 改进零参考深度曲线低照度图像增强算法. 计算机测量与控制. 2023(01): 209-214+221 . 百度学术
10. 龚勇,张海民. 低照度环境下小尺度人脸图像增强方法. 青岛理工大学学报. 2023(01): 141-146+160 . 百度学术
11. 田源. 视觉感知下的无人机拍摄图像最邻近帧质量增强. 现代电子技术. 2023(15): 67-70 . 百度学术
12. 彭大鑫,甄彤,李智慧. 低光照图像增强研究方法综述. 计算机工程与应用. 2023(18): 14-27 . 百度学术
13. 张平,孙林,解斐斐,田亚楠,赵旭东. 改进Retinex的低照度图像增强研究. 激光杂志. 2023(09): 91-97 . 百度学术
14. 张勇,周斌,王建斌. 多尺度Retinex低照度图像增强的ZYNQ实现. 火力与指挥控制. 2023(07): 156-162 . 百度学术
15. 钟小莉,谢旻旻. 模糊图像固定跟踪点特征自适应增强算法仿真. 计算机仿真. 2023(12): 316-320 . 百度学术
16. 王克广,岳乔,缪伟,邬冠华. 发动机小直径管X射线底片数字化图像增强技术. 失效分析与预防. 2022(02): 86-95 . 百度学术
17. 汤浩,朱泓宇,谢超. 低照度图像增强方法综述. 林业机械与木工设备. 2022(07): 4-10 . 百度学术
其他类型引用(24)