Infrared Image Deblurring Based on Dense Residual Generation Adversarial Network
-
摘要:
红外图像拍摄过程中,由于摄像设备抖动或目标快速移动会导致图像出现运动模糊,极大影响了有效信息的提取和识别。针对上述问题,本文在DeblurGAN基础上提出一种基于密集残差生成对抗网络的红外图像去模糊方法。该方法首先采用多尺度卷积核,提取红外图像不同尺度和层次的特征。其次,采用密集残差块(residual-in-residual dense block, RRDB)代替原生成网络中的残差单元,改善恢复红外图像的细节信息。通过本课题组自制的红外图像数据集进行实验,结果表明所提出的方法与DeblurGAN相比PSNR提高3.60 dB,SSIM提高0.09,主观视觉去模糊效果较好,恢复后的红外图像边缘轮廓清晰且细节信息明显。
Abstract:During infrared (IR) image capture, the shaking of camera equipment or rapid movement of the target causes motion blur in the image, significantly affecting the extraction and recognition of effective information. To address these problems, this study proposes an infrared image deblurring method based on a dense residual generation adversarial network (DeblurGAN). First, multiscale convolution kernels are employed to extract features at different scales and levels from infrared images. Second, a residual-in-residual dense block (RRDB) is used, instead of the residual unit in the original generation network, to improve the detail of the recovered IR images. Experiments were conducted on the infrared image dataset collected by our group, and the results show that compared to DeblurGAN, the proposed method improves PSNR by 3.60 dB and SSIM by 0.09. The subjective deblurring effect is better, and the recovered infrared images have clear edge contours and detail information.
-
0. 引言
红外成像技术由于其受环境因素影响小、抗干扰能力强,被广泛应用于军事侦察、安防监控、医学诊断等领域。然而,红外图像拍摄过程中,由于不可避免的摄像设备抖动或目标快速移动导致红外图像出现运动模糊,极大地影响了有效信息的提取和识别,使得红外成像技术优势无法充分发挥。因此,红外图像去模糊的研究具有理论意义和应用价值。
目前,针对图像去模糊的问题国内外现有方法主要分为两类:传统方法和基于深度学习的方法。传统方法包括逆滤波[1]、维纳滤波(Wiener)[2]和迭代去卷积算法(Lucy-Richardson, LR)[3]等。其中,逆滤波法是最早也是最简单的一种方法,它基于点扩散函数(point spread function, PSF)模型进行去卷积处理,可以恢复原始图像,但对噪声非常敏感,当图像中存在大量噪声时,其去模糊效果就不理想。维纳滤波是一种常用的去噪和去模糊的方法,它结合了图像的频域信息和噪声的统计特性,可以对图像进行较好的恢复,但需要先对PSF进行精确估计。LR算法是一种时域图像复原的算法,其基本原理是通过最大似然估计和贝叶斯理论,对图像进行复原,但复原结果容易产生振铃效应,影响图像质量。这些传统方法计算成本较高,而且受噪声影响较大,因此它们的应用范围受到一定的限制。基于深度学习的去模糊方法近年来得到了迅速的发展,主要包括基于卷积神经网络和基于生成对抗网络等。2014年,Goodfellow等人提出了生成对抗网络(generative adversarial network, GAN)[4],在计算机视觉领域展示了强大的能力。与传统的深度学习网络模型相比,GAN是一种全新的无监督网络架构,通过建立范数约束来实现输出与目标之间的关联。2015年,Sun等人[5]利用卷积神经网络预测图像的运动模糊概率分布情况,并结合图像先验分块进行去模糊处理,相较于传统方法,该方法去模糊效果更好。2017年,Kupyn[6]等人提出了DeblurGAN网络,该网络结合了生成对抗网络和多元内容损失,以实现对运动图像去模糊,可以保存图像的细节纹理特征,相较传统方法更加优良。尽管DeblurGAN取得了较好的效果,但同样也有不足之处,即DeblurGAN在生成网络中无法充分利用图像的特征信息[7],造成DeblurGAN去模糊的图像细节纹理信息有所缺失。
本文针对红外图像去模糊效果和细节特征保留的问题,本文在DeblurGAN基础上进行改进并提出了一种基于密集残差生成对抗网络的红外图像去模糊方法。在生成网络中,采用多尺度卷积核进行特征提取,更好地捕捉不同尺度下的特征信息;同时采用密集残差块(residual-in-residual dense block, RRDB)代替原网络中的残差单元,解决图像在去模糊过程中发生的细节内容丢失和边缘扭曲问题,并增强网络的表示能力。通过实验证明,本文方法相对于其他方法,在红外图像去模糊方面表现出更好的性能和效果。
1. 本文方法
1.1 生成对抗网络
生成对抗网络由Goodfellow等人[4]于2014年提出,是一种由生成网络(Generator, G)和判别网络(Discriminator, D)组成的深度学习模型,通过博弈的方式来学习生成逼真的数据样本。生成网络G的目标是尽可能使生成的样本被判别网络D误认为是真实数据样本,判别网络D的目标是尽可能准确地区分真实数据样本和生成样本。生成网络和判别网络相互对抗、不断学习,最终使得判别网络无法判断生成网络的输出结果是否真实。其网络架构图如图 1所示。
GAN的核心原理公式为:
$$\min\limits_G \max\limits_D V(D, G)=\underset{x \sim P_r}{E} \log D(x)]+\underset{\tilde{x} \sim P_g}{E}[\log (1-D(\tilde{x}))]$$ (1) 式中:G代表生成网络;D代表判别网络;E表示期望;x属于真实数据集Pr中的数据;$\tilde{x}$属于生成数据Pg中的数据,表示为$\tilde{x}=G(z)$,z为随机噪声。
1.2 生成网络
生成网络作用在于去除退化红外图像的模糊,生成还原图像,其结构如图 2所示。首先,输入模糊红外图像经过一个多尺度卷积模块(multi-scale convolutional module, MSCM)和两个3×3的卷积层进行卷积实现下采样,从而得到红外图像的特征图。再经过9个密集残差块,进一步加强网络对红外图像的细节特征学习。然后经过两个3×3转置卷积层进行反卷积实现上采样。最后经过一个7×7的卷积层,输出清晰的红外图像。此外,网络加入了全局跳跃连接(global-skip connection),跳跃连接可以在输入和输出之间建立直接连接,帮助网络更好地学习图像细节和纹理,有效减少梯度消失和网络退化的程度,提高网络收敛速度,使训练更容易。
1)多尺度卷积模块(MSCM)
本文采用多尺度卷积核代替传统单一卷积核的模式[8],旨在更好地提取浅层特征。由于同一图像的模糊程度会随着尺度的降低而降低,因此可以用不同尺度的特征来处理不同程度的模糊。因为输入图像上各处的模糊程度可能相同,所以采用多尺度卷积核提取不同尺度的特征具有一定的重要性[9]。单一卷积核在处理图像时只能捕捉到固定大小的局部信息,而采用多尺度卷积核进行特征提取,可以帮助图像在不同尺度下采集到不同类型的特征信息,从而获得更加丰富的特征表示。同时通过多尺度卷积核的使用可以增强网络对不同尺度特征的感知能力,提高网络在多尺度图像上的表现,增强鲁棒性。本文提出的多尺度卷积模块结构如图 3(a)所示。模糊红外图像首先经过一个7×7的卷积操作;再经过3个不同尺度的卷积核,分别是1×1、3×3和5×5;最后,将提取到的特征通过拼接的方式进行融合。
2)密集残差块
针对红外图像在去模糊过程中,容易发生细节内容丢失的问题,本文采用密集残差块代替DeblurGAN网络中的残差单元,丰富所恢复图片的细节信息。传统的残差单元由于层数较浅,无法捕捉到图像中的复杂纹理和细节信息。本文提出的密集残差块的结构如图 3(b)所示,由4组3×3的卷积层、实例归一化层、激活层经过从前向后依次跳跃连接形成密集块(dense block)。在密集块中,利用密集连接的方式在每个卷积层之间传递信息,以充分利用这些层的信息,使得图像恢复效果更好。相比较传统的密集块,网络结构去掉了BN层,因为BN层在训练期间使用批次中的均值和方差对特征进行归一化,且在测试期间会使用整个训练数据集的估计均值和方差,当训练和测试数据集的统计数据差异很大时,BN层往往会引入伪影,限制泛化能力[10]。并针对去模糊这种需要关注个例均值和方差的任务,使用IN层对单张图片的宽和高进行归一化,可以有助于模型更好地学习图像之间的特征和模式,提高去模糊的效果。为了避免参数过多导致难以训练,最后每个密集块学习到的残差信息乘以0.2进行缩放,并减小初始化参数,增强网络的稳定性。
1.3 判别网络
判别网络作用是判别原始清晰红外图像与生成网络生成的还原图像。判别网络包括卷积层提取特征、实例归一化进行规范化、LeakyReLU激活函数引入非线性元素以及Sigmoid激活函数产生概率结果。而通过设置LeakyReLU的负值斜率为α=0.2,可以调整激活函数的形状,以更好地适应任务需求。判别网络结构如图 4所示。
1.4 损失函数
本文提出的网络损失函数包括内容损失和对抗损失两部分。总的损失函数表示为:
$$ L=L_{\rm GAN}+λL_{X} $$ (2) 式中:LGAN为对抗损失;LX为内容损失;λ为权重常数,取100。
1)对抗损失
采用WGAN-GP网络[11]作为对抗损失函数,使用Wasserstein距离来度量生成器和判别器之间的距离,避免GAN中出现训练不稳定或模式崩溃等问题。WGAN-GP的损失函数表示为:
$$L_{\mathrm{GAN}}=\sum\limits_{n-1}^N-D\left(G\left(I^{\mathrm{B}}\right)\right)$$ (3) 式中:IB表示输入的模糊图像;G(IB)表示通过生成网络G对模糊图像进行去模糊后输出的图像;D(G(IB))表示对去模糊图像进行概率计算;N表示样本个数。
2)内容损失
本文引入感知损失作为网络训练中内容损失函数,以改善生成图像与清晰图像之间的内容一致性。选择在ImageNet[12]上的VGG_19[13]预训练模型,计算感知损失,具体公式为:
$$L_X=\frac{1}{W_{i, j} H_{i, j}} \sum\limits_{a=1}^{W_{i, j}} \sum\limits_{b=1}^{H_{i, j}}\left(\psi_{i, j}(x)_{a, b}-\psi_{i, j}(\tilde{x})_{a, b}\right)^2$$ (4) 式中:ψi, j是VGG-19网络中第i个最大池化层之前的第j个卷积层激活后获得的特征图;Wi, j和Hi, j是特征图的维度。
2. 实验结果
2.1 数据集构建
目前,由于没有公开用于红外图像去运动模糊的数据集;且深度学习网络训练需要大量成对数据,才可学习到更细致的特征;同时受外部因素影响,在同一条件下拍摄一对清晰和模糊的红外图像存在一定困难。因此,本文采用Kupyn等人[6]提出的方法合成红外运动模糊数据集。通过运动轨迹的随机性,合成图像可模拟多种条件下运动模糊场景,包括相机受迫抖动和物体匀速直线运动等。因此,在难以获得真实运动模糊图像的情况下,采用该方式合成数据集训练深度学习网络模型是合理的。本文采用的图像运动模糊退化模型为:
$$B(x, y)=I(x, y) K$$ (5) $$ K=S(x) $$ (6) 式中:x是由马尔科夫随机过程生成的随机轨迹向量;I(x, y)表示清晰图像;B(x, y)表示运动模糊图像;K代表模糊核;S(x)表示用亚像素插值算法对x进行计算。
本文采用FLIR数据集中8862张分辨率为640×512的高质量红外图像作为自制红外模糊数据集的清晰图像。FLIR数据集提供带注释的热成像数据集和相应无注释的RGB图像,用于训练和验证神经网络,数据通过安装在车辆上的RGB相机和热成像相机获得。对清晰红外图像通过模拟生成运动轨迹算法合成运动模糊,最终形成8862对自建红外数据集,将其中的7090对作为训练集,1772对作为测试集。图 5展示了部分红外模糊数据集图像及其对应的模糊核。
2.2 模型训练
实验使用了PyTorch作为网络模型训练框架,在NVIDIA GeForce RTX 3090 GPU上进行训练。批量大小(Batch Size)设置为4,训练周期(Epoch)设置为300。采用Adam优化算法进行网络权重的训练更新,初始学习率设置为10-4,前150个周期学习率均采用初始值,后150个周期内的学习率按线性衰减至0。
2.3 评价指标
图像去模糊处理的过程中,评价图像复原质量的指标:
① 峰值信噪比(PSNR)是输入信号可能功率的最大值和影响信号噪声功率的比值,计算式如式(7)所示。
$${\rm PSNR}=10 \lg \left(\frac{\left(2^n-1\right)^2}{\frac{1}{H \times W} \sum\limits_{i=1}^H \sum\limits_{j=1}^W(X(i, j)-Y(i, j))^2}\right)$$ (7) 式中:H、W分别为图像的高度和宽度;n为每像素的比特数。PSNR的单位是dB,数值越大表示失真越小。
② 结构相似性(SSIM)是用作度量两个给定图像之间的相似性[14],计算式为:
$$\operatorname{SSIM}(x, y)=\frac{\left(2 \mu_x \mu_y+c_1\right)\left(2 \sigma_{x y}+c_2\right)}{\left(\mu_x^2+\mu_y^2+c_1\right)\left(\sigma_x^2+\sigma_y^2+c_2\right)}$$ (8) 式中:μx、μy分别表示图像X和Y的均值;σx、σy分别表示图像X和Y的方差;σxy表示图像X和Y的协方差,c1、c2为常数,为了避免分母为0的情况,SSIM取值范围[0, 1],SSIM值越大,表示图像失真越小。
2.4 实验结果分析
2.4.1 消融实验结果分析
为了验证本文方法的有效性,采用自制红外图像数据集进行消融实验。在相同的参数设置下,模型分别使用RRDB和RB(DeblurGAN残差单元)对样本进行训练和测试。并引入多尺度卷积模块,以评估本文提出的多尺度卷积模块和密集残差块对红外图像清晰化的有效性,实验结果如表 1和图 6所示。
表 1 消融实验客观评价结果Table 1. Objective evaluation of the results of ablation experimentsMethods PSNR/dB SSIM DeblurGAN(RB) 28.23 0.77 DeblurGAN+MSCM 28.41 0.79 RRDB 29.11 0.81 Ours 31.83 0.86 由表 1可知,多尺度卷积模块和密集残差块的增加都会使模型在PSNR和SSIM上有小幅度的提升。图 6(a)、(c)分别使用了RB和RRDB网络单元,可以看出两张图片都产生了不同程度的网格效应。使用RB网络单元的去模糊结果显示出较为明显的网格效应,而使用RRDB网络单元的去模糊结果则表现出较轻微的网格效应,看上去更加平滑和自然。相较于使用RB网络单元,使用RRDB网络单元的去模糊效果更出色,纹理更加清晰,细节更加丰富。图 6(b)、(d)在(a)、(c)的基础上加入了多尺度卷积模块,整体去模糊效果更好。此消融实验结果证明了MSCM模块和RRDB模块的有效性,能够更好地恢复图像的细节和清晰度。
2.4.2 对比实验结果分析
为了进一步验证本文方法的有效性,采用自制红外图像数据集进行对比实验。在相同的实验环境下,分别使用传统图像去模糊方法:Wiener滤波[2]、LR算法[3],基于深度学习的图像去模糊方法:DeblurGAN、SRN-DeblurNet与本文所提出的方法,并对实验结果进行主客观质量评价。Wiener滤波方法通过最小化模糊图像和重建图像之间的均方误差来重建模糊图像;LR算法利用最大似然估计对模糊图像进行迭代求解;DeblurGAN方法采用深层残差网络进行特征提取,并以端到端的方式进行图像盲去模糊;SRN-DeblurNet方法以编码器-解码器为基本网络结构,采用从“粗”到“精”的思想,实现了不同尺度之间参数共享来去模糊。传统图像去模糊方法的最优参数设置是通过迭代算法对所提出测试集中每一张红外图像进行的,基于深度学习的图像去模糊方法训练细节都按照2.2节配置,除了训练的epoch是根据每个网络的收敛速度设置的。
图 7展示了部分图片去模糊效果对比,使用Wiener滤波方法与LR方法对红外图像进行去模糊效果较差,使用DeblurGAN方法对红外图像进行去模糊有一定效果但效果有限,而使用SRN-DeblurNet方法和本文方法的去模糊效果较为理想。图 8展示了其中一张图片放大两个区域的细节对比,可以明显看出本文方法相比于SRN-DeblurNet方法,去模糊后图像纹理细节更加丰富,且能够有效消除DeblurGAN方法存在的网格效应问题。
不同方法的客观评价结果如表 2所示。相较于DeblurGAN方法,本文方法PSNR提高了3.60 dB,SSIM提高了0.09;相较于DeblurGAN-v2方法,本文方法PSNR提高了2.22 dB,SSIM提高了0.06;相较于SRN-DeblurNet方法,本文方法PSNR提高了1.73 dB,SSIM提高了0.04。因此,与其他方法相比,本文方法在PSNR和SSIM上取得了显著的改善,证明了本文方法的优越性。
表 2 不同方法的客观评价结果Table 2. Objective evaluation results of different methodologiesMethods PSNR/dB SSIM Wiener 24.35 0.62 LR 24.51 0.68 DeblurGAN 28.23 0.77 DeblurGAN-v2 29.61 0.80 SRN-DeblurNet 30.10 0.82 Ours 31.83 0.86 3. 结论
本文针对红外图像去模糊的问题,提出了一种基于密集残差生成对抗网络的红外图像去模糊方法。该方法在DeblurGAN基础上进行改进,采用多尺度卷积模块和密集残差块,增强了网络提取特征的能力,丰富了红外图像的细节信息。在本课题组自制红外图像数据集上进行消融实验和对比实验,前者证明了多尺度卷积模块和密集残差块对红外图像清晰化的有效性;后者证明了本文方法客观上PSNR比DeblurGAN高3.60 dB,SSIM比DeblurGAN高0.09,同时主观上视觉效果更为理想,更好地辨别出去模糊后红外图像的细节信息。
-
表 1 消融实验客观评价结果
Table 1 Objective evaluation of the results of ablation experiments
Methods PSNR/dB SSIM DeblurGAN(RB) 28.23 0.77 DeblurGAN+MSCM 28.41 0.79 RRDB 29.11 0.81 Ours 31.83 0.86 表 2 不同方法的客观评价结果
Table 2 Objective evaluation results of different methodologies
Methods PSNR/dB SSIM Wiener 24.35 0.62 LR 24.51 0.68 DeblurGAN 28.23 0.77 DeblurGAN-v2 29.61 0.80 SRN-DeblurNet 30.10 0.82 Ours 31.83 0.86 -
[1] 吴雪垠, 吴瑾, 张鹤. 逆滤波法在图像复原中的应用[J]. 信息技术, 2011, 35(10): 183-185. https://www.cnki.com.cn/Article/CJFDTOTAL-HDZJ201110052.htm WU X, WU J, ZHANG H. Research on image restoration techniques based on inverse filtering algorithm[J]. Information Technology, 2011, 35(10): 183-185. https://www.cnki.com.cn/Article/CJFDTOTAL-HDZJ201110052.htm
[2] Gonzalez R C, Woods R E. Digital image processing[J]. IEEE Transactions on Acoustics Speech and Signal Processing, 1980, 28(4): 484-486. DOI: 10.1109/TASSP.1980.1163437
[3] Richardson W H. Bayesian-based iterative method of image restoration[J]. Opt. Soc. Am. , 1972, 62(1): 55-59 DOI: 10.1364/JOSA.62.000055
[4] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems, 2014: 2672-2680.
[5] SUN J, CAO W, XU Z, et al. Learning a convolutional neural network for non-uniform motion blur removal[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 769-777.
[6] Kupyn O, Martyniuk T, WU J, et al. Deblurgan-v2: Deblurring (orders-of-magnitude) faster and better[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 8878-8887.
[7] 陈乔松, 隋晓旭, 官旸珺, 等. 基于多尺度残差生成对抗网络的单图像盲去运动模糊方法[J]. 计算机应用研究, 2021, 38(3): 919-922. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ202103054.htm CHEN Q S, SUI X X, GUAN Y J, et al. Method of single image blind deblurring based on multi scale residual generative adversarial networks [J]. Application Research of Computers, 2021, 38(3): 919-922. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ202103054.htm
[8] 孙晶晶, 张艳艳, 高超, 等. 基于DeblurGAN的运动模糊图像盲复原算法研究[J]. 电子测量技术, 2022, 45(22): 112-119. https://www.cnki.com.cn/Article/CJFDTOTAL-DZCL202222018.htm SUN J J, ZHANG Y Y, GAO C, et al. Research on blind recovery algorithm for motion blurred images based on DeblurGAN[J]. Electronic Measurement Technology, 2022, 45(22): 112-119. https://www.cnki.com.cn/Article/CJFDTOTAL-DZCL202222018.htm
[9] 缪弘, 张文强. 基于深度卷积神经网络的视觉SLAM去模糊系统[J]. 中兴通讯技术, 2018, 24(5): 62-66. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXTX201805015.htm MIAO H, ZHANG W Q. Deep convolutional neural network for visual SLAM deblurring[J]. ZTE Technology Journal, 2018, 24(5): 62-66. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXTX201805015.htm
[10] 汪海敏. 基于卷积神经网络的图像超分辨率重建[D]. 成都: 电子科技大学, 2019. WANG M M. Image super-resolution reconstruction based on convolutional neural network[D]. Chengdu: University of Electronic Science and Technology, 2019.
[11] Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of Wasserstein GANs[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems, 2017: 5769-5779.
[12] DENG J, DONG W, Socher R, et al. Imagenet: a large-scale hierarchical image database[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition, 2009: 248-255.
[13] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv: 1409.1556, 2014.
[14] 侯坤. 基于深度学习的图像去模糊方法研究与应用[D]. 南京: 南京信息工程大学, 2022. HOU K. Research and Application of Image Deblurring Method Based on Deep Learning[D]. Nanjing: Nanjing University of Information Engineering, 2022.
[15] 黄梦涛, 高娜, 刘宝. 基于双判别器加权生成对抗网络的图像去模糊方法[J]. 红外技术, 2022, 44(1): 41-46. http://hwjs.nvir.cn/cn/article/id/2b3573a7-0ce1-4b4e-b07a-1f946e1c30d6 HUANG M T, GAO N, LIU B. Image deblurring method based on a dual-discriminator weighted generative adversarial network[J]. Infrared Technology, 2022, 44(1): 41-46. http://hwjs.nvir.cn/cn/article/id/2b3573a7-0ce1-4b4e-b07a-1f946e1c30d6
[16] 汪陈跃, 雷旭峰, 李泽民, 等. 空间变化离焦模糊红外图像快速复原算法[J]. 红外技术, 2021, 43(4): 378-384. http://hwjs.nvir.cn/cn/article/id/6ec351a1-38e8-450f-a409-5f75e4c0b601 WANG C Y, LEI X F, LI Z M, et al. Fast restoration algorithm for space-variant defocus blurred infrared images[J]. Infrared Technology, 2021, 43(4): 378-384. http://hwjs.nvir.cn/cn/article/id/6ec351a1-38e8-450f-a409-5f75e4c0b601
[17] 陈彦林, 王志社, 邵文禹, 等. 红外与可见光图像多尺度Transformer融合方法[J]. 红外技术, 2023, 45(3): 266-275. http://hwjs.nvir.cn/cn/article/id/8d183327-f396-4c96-b8c4-24ab8acb6a44 CHEN Y L, WANG Z S, SHAO W Y, et al. Multi-scale transformer fusion method for infrared and visible images[J]. Infrared Technology, 2023, 45(3): 266-275. http://hwjs.nvir.cn/cn/article/id/8d183327-f396-4c96-b8c4-24ab8acb6a44
[18] 曹宇彤, 宦克为, 薛超, 等. 基于卷积神经网络结合NSCT的红外与可见光图像融合[J]. 红外技术, 2023, 45(4): 378-385. http://hwjs.nvir.cn/cn/article/id/8dcdf3fd-9d63-4900-a2e6-8f851c64f950 CAO Y T, HUAN K W, XUAN C, et al. Infrared and visible image fusion based on CNN with NSCT[J]. Infrared Technology, 2023, 45(4): 378-385. http://hwjs.nvir.cn/cn/article/id/8dcdf3fd-9d63-4900-a2e6-8f851c64f950
[19] 陈文艺, 杨承勋, 杨辉. 引导滤波和对数变换算法融合的多尺度Retinex红外图像增强[J]. 红外技术, 2022, 44(4): 397-403. http://hwjs.nvir.cn/cn/article/id/f1fcd3be-4a81-4b25-ad02-5f8c035f0be2 CHEN W Y, YANG C X, YANG H. Multiscale Retinex infrared image enhancement based on the fusion of guided filtering and Logarithmic transformation algorithm[J]. Infrared Technology, 2022, 44(4): 397-403. http://hwjs.nvir.cn/cn/article/id/f1fcd3be-4a81-4b25-ad02-5f8c035f0be2
[20] 吉训生, 滕彬. 基于生成对抗网络的行人异常行为图像去模糊算法研究[J]. 光电工程, 2021, 48(6): 32-42. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202106004.htm JI X S, TENG B. Deblurring algorithm based on pedestrian abnormal behavior generation countermeasure network[J]. Opto-Electronic Engineering, 2021, 48(6): 32-42. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202106004.htm
-
期刊类型引用(1)
1. 杨斌,李健,胡慧文,刘义英,陈文之. 基于无监督对抗模型的网络异常检测算法. 河南科学. 2025(03): 330-336 . 百度学术
其他类型引用(0)