Infrared Image Non-uniformity Correction Algorithm Based on Lightweight Multiscale Downsampling Network
-
摘要:
红外成像系统常由于探测单元的非均匀性导致成像结果出现条纹噪声。基于深度学习的红外图像非均匀校正算法为取得较好的校正结果,通常采用复杂度高的网络结构,导致计算量庞大。本文提出了一种轻量化网络的红外图像非均匀校正算法,并针对Unet网络的编码过程设计了一种轻量化多尺度下采样模块(Lightweight Multi-scale Downsampling Module, LMDM)。LMDM通过像素拆分和通道重构实现特征图下采样,利用多个串联的深度可分离卷积(Depth-wise Separable Convolution, DSC)实现多尺度特征提取。此外,该算法引入轻量化通道注意力机制用于调整特征权重,实现更好的上下文信息融合。实验结果表明,与对比算法相比,本文提出的算法在保证校正图像纹理清晰、细节丰富和边缘锐利的前提下,内存占用降低70%以上,红外图像处理速度提升24%以上。
Abstract:Infrared imaging systems often produce fringe noise in imaging results owing to the non-uniformity of the detection unit. To obtain better correction results, most deep learning-based infrared image non-uniformity correction algorithms adopt complex network structures, which increase the computational cost. This study proposes a lightweight network-based infrared image non-uniformity correction algorithm and designs a lightweight multi-scale downsampling module (LMDM) for the encoding process of the Unet network. The LMDM uses pixel splitting and channel reconstruction to realize feature map downsampling and realizes multi-scale feature extraction using multiple cascaded depth-wise separable convolutions (DSC). In addition, the algorithm introduces a lightweight channel attention mechanism for adjusting feature weights to achieve better contextual information fusion. The experimental results show that the proposed algorithm reduces memory use by more than 70% and improves the processing speed of the infrared images by more than 24% compared with the comparison algorithm while ensuring that the corrected image has a clear texture, rich details, and sharp edges.
-
0. 引言
因为水体和漂浮粒子对光线的吸收和散射,水下成像往往产生严重的色彩偏移和较低的对比度,严重影响了水下探测、水下导航和海洋开发等应用,因此,水下图像增强非常重要。水下图像增强的主要任务是实现颜色补偿、提升图像的对比度和去模糊[1]。水下图像增强方法主要分为两种:基于水下成像物理模型的图像复原方法与调整图像的像素值来优化颜色和对比度的图像增强方法[2]。鉴于暗通道先验或最大强度先验的成像模型对水下图像的场景深度估计不够准确,Peng等[3]提出基于图像模糊度和光吸收的场景深度估计方法,结合成像模型对水下图像进行恢复,但是其成像模型的泛化能力有限,对部分蓝色调或绿色调较强的水下图像的恢复效果较差。Wang等[4]提出基于自适应衰减曲线先验的水下图像恢复方法,这种先验依赖于像素值的统计分布,假设清晰图像的所有像素可以划分为不同的聚类,每个聚类中的像素被水体衰减后,以幂函数的形式分布在一条曲线上。Peng等[5]利用基于深度的颜色变化估计环境光,通过场景环境光差异对场景传输进行估计,以实现颜色补偿,同时结合自适应的颜色校正恢复图像的对比度,但是难以有效去除多样化的水下场景图像的颜色失真。Lin等[6]将水下图像分解为结构层和纹理层,用红蓝暗通道先验对结构层进行恢复,用细节提升算法对纹理层进行锐化。水下图像的复原方法存在的问题为:水下图像成像模型和先验知识的可靠性难以保证,基于物理模型的水下图像复原方法在复原不同环境、不同色调和不同目标的水下图像时存在明显的局限性。
Chiang等[7]采用波长补偿技术实现水下图像的颜色校正,通过去雾实现对比度的提升。黄冬梅等[8]充分利用颜色模型和水下图像的特征,在不同颜色模型下对各图像分量分别进行自适应的直方图拉伸。其基于自适应区间的直方图拉伸能在提升图像对比度的同时,校正图像的颜色偏差。Zhang等[9]基于Retinex理论框架,根据每个通道的特征,在CIELAB颜色空间中对图像的3个通道组合使用双边滤波和三边滤波,以改善水下图像的视觉效果。但是其缺乏有针对性的颜色校正,增强图像偏蓝、绿色调。史金余等[10]用白平衡算法对图像进行颜色校正,用对比度受限的自适应直方图均衡化和Gamma校正分别增强图像的低频和高频部分,但是其根据经验定义Gamma公式以及Gamma指数,缺乏鲁棒性。Ulutas等[11]用对比度限制的自适应直方图均衡化(Contrast Limited Adaptive Histogram Equalization,CLAHE)对水下图像进行对比度提升和颜色校正,但是基于CLAHE的颜色校正脱离水下图像的颜色特征,校正后的颜色效果与自然颜色还是有一定的差距。
近年来,深度学习大大提升了计算机视觉的性能,包括水下图像增强。Guo等[12]提出一种多尺度密集生成对抗性网络以增强水下图像,在生成器中用残差多尺度密集块渲染图像细节,以提升图像的增强效果。Li等[13]提出一种用于增强真实水下图像的融合对抗性网络,其中的多项对抗损失不仅可以引入多图像特征,还可以平衡多项损失函数的作用。但是,由于训练数据不足和网络模型的任务特性,基于深度学习的水下图像增强方法难以有效应对多样化的水下图像,其泛化能力有限[14]。
现有的水下图像增强方法存在缺乏鲁棒性、颜色校正不准确、对比度不高和泛化能力差等缺陷。因此,为了进一步改善水下图像的颜色以及提升其对比度和清晰度,提出了改进直方图匹配和自适应均衡的水下图像增强方法。以最大像素均值的通道图像的直方图为基准,对各通道图像分别进行直方图匹配。该方法能鲁棒地实现水下图像的颜色校正,能适用于各种不同的水下图像,具有较好的泛化能力。另外,充分利用HSI颜色空间中颜色分量与明度分量的独立性,用自适应的局部直方图均衡化对明度分量进行处理,进一步提升水下图像的对比度和清晰度。用主、客观的实验结果证明了提出方法相对于部分现有方法的有效性和优越性。
1. 基于最大通道均值的直方图匹配
由于水体以及水体中的漂浮粒子等对光线的吸收和散射,在一定程度上削弱到达传感器的光线强度。其中波长较长的红光衰减较为明显,绿光和蓝光次之,因此水下成像往往呈现绿、蓝色调。而根据对大量的亮度适宜、对比度和清晰度较高的空气成像的实验和观察,得出以下结论:
1)红、绿和蓝三通道图像的直方图分布大体上是一致的,之间的差别非常小。
2)通道图像的直方图充分利用整个灰度级动态空间,体现出较高的图像对比度和清晰度。
3)通道图像的直方图的均值一般处于灰度级水平轴的中间或中间稍微偏右,体现在适宜的图像亮度。
一张亮度适宜、对比度和清晰度较高的空气成像与其通道图像的直方图如图 1(a)所示,其严格遵守了以上3个结论。
如图 1(b)所示,水下成像时,红色通道图像衰减最大,其信号强度较小,对应的直方图分布偏向灰度值较小的灰度级范围。而绿色和蓝色通道图像也有衰减,但是相对较小,在一定程度上能保持正常的图像信号强度,其对应的直方图能大致地分布于大部分的灰度级范围,所以绿色和蓝色通道图像的效果相对较好。因此,可以将绿色或蓝色通道图像的直方图作为基准,对其它两个通道图像进行直方图校正。一般地,像素均值较大的通道图像,其信号强度也较大,采用信号强度较大的通道图像作参照,对其它两个通道图像进行直方图校正,能更有效地恢复图像的信号强度,从而更有效地改善图像的亮度、对比度和清晰度。
根据以上分析,为了实现三通道图像的直方图大致一致,且保证图像信号有足够的强度,本文提出了基于最大通道均值的直方图匹配,以校正图像的颜色偏差,同时在一定程度上提升图像的亮度和对比度。均值最大的通道图像,水体对其造成的衰减和散射最少,图像信号的强度最大,能近似表示其它两个通道图像在没有衰减和散射情况下的信号分布和信号强度。
令水下图像f为L灰度级,具体方法如下:
1)选择像素均值最大的通道图像的直方图作为目标直方图:
$$ {h_{\text{T}}} = \mathop {\arg \max }\limits_{({h_{\text{R}}},{h_{\text{G}}},{h_{\text{B}}})} \{ {\text{mean}}({f_{\text{R}}}),{\text{mean}}({f_{\text{G}}}),{\text{mean}}({f_{\text{B}}})\} $$ (1) 式中:fR、fG和fB分别为红色、绿色和蓝色通道图像;hR、hG和hB分别为对应的直方图。
2)将直方图hk (k∈{R、G、B、T})归一化,其中运算|E|为统计集合E的元素数:
$$ {h_{k\_{\text{nor}}}} = \frac{{{h_k}}}{{|{f_k}|}},\;(k \in \{ R,G,B,T\} ) $$ (2) 3)对各通道图像进行直方图均衡化,得到灰度级x的均衡化映射函数Sk(x):
$$ {S_k}(x) = (L - 1)\sum\limits_{i = 0}^x {{h_{k\_{\text{nor}}}}(i),\;(x = 0,1, \cdots ,L - 1)} $$ (3) 4)将均值最大的通道图像的均衡映射函数ST存储在一个表中,对于每一个值Sk(x)(k∈{R, G, B}, x=0, 1, …, L-1),在ST中查找与Sk(x)最接近的ST(y),并存储映射:
$$ {y_k}(x) = \mathop {\arg \min }\limits_t \{ |{S_k}(x) - {S_{\text{T}}}(t)|\} ,\;(t = 0,1, \cdots ,L - 1) $$ (4) 5)根据映射yk(x),分别将通道图像fk(k∈{R, G, B})中的像素x(x=0, 1, …, L-1)映射为yk(x),得到直方图匹配后的图像:
$$ f_{k}(f_{k}==x)=y_{k}(x) $$ (5) 式中:==表示比较运算。
假设图像的灰度级为L=8,基于最大通道均值的直方图匹配的效果如图 2所示。经过直方图匹配之后的图像,其直方图的分布和像素强度的特征与目标直方图较为接近。
2. 自适应的局部直方图均衡化
经过最大通道均值的直方图匹配的水下图像,其颜色得到了校正,亮度和对比度也得到了一定程度的改善,但是因为水体本身和水中悬浮的颗粒对光线的吸收和散射,红、绿、蓝色光均有一定程度的衰减,其中红色光衰减较大,会造成图像的雾霾效果,图像的清晰度较低,如图 3(b)所示。
直方图均衡可以提升图像的对比度,但是直方图均衡是全局性的,像素被基于整张图像的灰度分布的变换函数修改,于是部分局部像素的影响在全局的变换计算中被忽略了,并且会产生局部的欠增强和过增强。另外,直方图均衡会忽略最小的灰度级0,均衡后的图像没有真正的黑色像素,部分像素只是近似为黑色。
RGB颜色模型为混合颜色模型,如果继续对通道图像进行处理,势必会破坏图像的颜色。而HSI颜色模型为独立模型,将图像分为色调H、饱和度S和明度I三种基本特征量,其中色调H决定图像的颜色,饱和度S决定图像的颜色深浅和鲜艳程度,而明度分量I决定图像的亮度和对比度,3个特征量相互独立,可对各自进行处理而互不干扰。图像从RGB颜色空间转换到HSI颜色空间的定义为[15]:
$$ H = \left\{ \begin{gathered} \theta ,\;\;\;\;\;\;\;\;\;\;\;B \leqslant G \hfill \\ 360^\circ - \theta ,\;\;\;\;B > G \hfill \\ \end{gathered} \right. $$ (6) 式中:$ \theta = \arccos \frac{{(R - G) + (R - B)}}{{2\sqrt {{{(R - G)}^2} + (R - B)(G - B)} }} $
$$ S = 1 - \frac{3}{{R + G{\text{ + }}B}}\min (R,G,B) $$ (7) $$ I = \frac{1}{3}(R + G{\text{ + }}B) $$ (8) 为了在保持图像的颜色信息的同时,去除图像的雾霾效果、提升图像的对比度和清晰度,借鉴直方图均衡和充分利用HSI颜色模型的特征量的独立性,提出了自适应的局部直方图均衡化方法。先将经颜色校正的水下图像f转换到HSI颜色空间,在保持其色调分量H和饱和度分量S不变的同时,对明度分量I进行自适应的局部直方图均衡化处理。
令I(p)为图像I中像素p的灰度,Np(r)为以像素p为中心的大小为r×r的矩形邻域,自适应的局部直方图均衡化的具体步骤如下。
1)根据式(6)~(8),将图像f转换到HSI空间,得到色调分量H、饱和度分量S和明度分量I。
2)明度分量I中的每个像素p,分别进行以下局部直方图均衡处理。
3)统计图像区域Np(r)的局部直方图hp,并进行归一化:
$$ {h_{p\_{\text{nor}}}} = \frac{{{h_p}}}{{|{N_p}(r)|}} $$ (9) 4)对图像区域Np(r)进行直方图均衡化,得到灰度级x的均衡化映射函数Sp(x):
$$ {S_p}(x) = (L - 1)\sum\limits_{i = 0}^x {{h_{p\_{\text{nor}}}}(i),\;(x = 0,1, \cdots ,L - 1)} $$ (10) 5)根据映射Sp(x),将中心像素p的灰度映射为:
$$ I(p) = \left\{ \begin{array}{l} 0,\;\;\;\;\;\;\;\;\;\;\;\;I(p) = {\text{find}}({h_{p\_{\text{nor}}}},1) \hfill \\ {S_p}(I(p)),\;{\text{others}} \hfill \\ \end{array} \right. $$ (11) 式中:find(X, 1)表示查找序列X中第一个非0元素的索引,式(11)特别地将最小的灰度值映射为灰度0,保证均衡化后的灰度跨越整个灰度空间[0, L-1]。
6)将色调分量H、饱和度分量S和局部均衡处理后的明度分量I转换到RGB颜色空间,得到增强的水下图像。
自适应的局部直方图均衡化方法根据图像每个像素p的邻域中的灰度分布分别设计变换函数,仅对当前像素p进行灰度映射,避免了全局直方图均衡化的欠增强和过增强效果,同时克服了其忽略最小灰度值0的缺陷,均衡后的图像的灰度级跨越更宽的灰度级范围,最终的结果是增强了对比度和清晰度,去除了水下图像的雾霾效果。
如图 3(c)所示,经最大通道均值的直方图匹配处理后的图像,颜色得到了校正,亮度和对比度也得到了一定程度的改善,但是有雾霾效果,图像的清晰度不高。再进一步经自适应的局部直方图均衡化增强后的图像,消除了雾霾效果,清晰度较高。
3. 实验验证与分析
在硬件为Intel i5-12400F CPU和8 GB RAM、系统为Win10,Matlab 2021a的台式计算机上,根据图像的视觉感知、信息熵、平均梯度、水下图像质量指标[16]和结构相似性指数,将本文方法与最新的文献[6]、[10]、[11]和[13]中提出的方法进行实验比较和分析,验证本文方法的有效性和实用性。所用的水下图像选自UIEB数据集[17]。
3.1 视觉感知
从增强图像的视觉效果上,可以综合地感知图像的色彩自然度、亮度、对比度和清晰度,类似于UIQM,但视觉感知从主观角度评价,UIQM从客观的角度评价。各算法对部分水下图像的增强效果如图 4所示,其中第一列为7张原水下图像,第二、三、四、五和六列分别为文献[6]、[10]、[11]、[13]方法和本文方法的增强效果图。
文献[6]方法的增强效果相对较好,增强图像的色彩较自然、对比度和清晰度较高,但是图像的亮度整体偏暗,部分微小的细节信息未能充分显示。文献[10]方法的增强效果相对较差,虽然在一定程度上对图像的颜色进行了校正,但是颜色的纯度低、色调偏灰色,缺乏层次感;另外,图像的雾霾效果依然明显,其对比度和清晰度偏低,特别是对场景四、六和七,其雾霾效果尤为明显。文献[11]方法的增强效果处于中等水平,增强图像的对比度和清晰度较高,但是部分区域产生了过增强,特别是场景一和场景二的前景部分、场景五和场景六的背景部分,过增强效果较为明显;另外,颜色补偿后产生了过饱和,色彩过鲜艳,部分图像区域的颜色偏离了场景和实物原本的颜色。文献[13]方法的增强效果处于中等水平,其明显的缺陷是增强图像的亮度偏暗,其中场景一的颜色欠饱和效果较为明显。
相对地,本文方法有效地校正了水下图像的颜色,与场景、实物和人物原本的颜色基本上一致,饱和度适中,色彩较自然;基本上去除了雾霾效果,图像的对比度和清晰度较高,原本因为雾霾效果而被隐藏的部分细节得以正常显示。只是对场景二背景中的水泡会产生一些放大噪声的效果,这是由自适应的局部直方图均衡化处理所致。局部直方图均衡化能够提升图像的局部对比度,因为场景二含有大量的小水泡,提升小水泡的清晰度的同时,会附带有部分噪声。与增强效果相对较好的文献[6]方法相比,两者相差不大,都能有效地校正了颜色,但是在亮度的适宜度和细节信息的清晰度上,本文方法稍微优于文献[6]方法。
3.2 信息熵
信息熵表示图像的有效信息量和细节信息的丰富程度;其值越大,图像的有效信息越多,纹理结构和细节信息越丰富。各方法对图 4所示的水下图像进行增强后,对应的信息熵如图 5所示。一般地,因为色偏以及雾霾效果,水下图像的有效信息量较低,经各方法的色彩校正和对比度提升后,信息含量均有不同程度的提升。文献[10]方法的信息熵较低,特别地,其对场景二增强后的信息熵比原水下图像还低。文献[11]方法因为产生过增强以及颜色过饱和,部分图像信息被破坏,其对应的信息熵相对偏低。文献[13]方法因为亮度偏暗影响了图像信息的显示,其信息熵处于中等水平。文献[6]方法的信息熵相对较高,而本文方法的信息熵高于其它方法。
3.3 平均梯度
平均梯度表示图像的局部灰度差,反映图像的对比度和清晰度,其值越大,图像的对比度越高,纹理结构和细节信息越清晰。但是放大噪声和过增强也会增大图像的平均梯度,需结合图像的视觉效果进行比较。各方法对图 4所示的水下图像进行增强后,对应的平均梯度如图 6所示。文献[10]方法因为色彩偏灰色,对比度偏低,其平均梯度较低。文献[13]方法因为亮度偏暗,对比度受到影响,其对应的平均梯度处于中等水平。文献[6]方法的平均梯度较高,而文献[11]方法和本文方法的平均梯度最高,明显高于其它方法,两者差别不大。但是结合图 4可知,文献[11]方法产生了明显的过增强,过增强会拉大像素之间的差距,导致其平均梯度较高。
3.4 UIQM
UIQM是专门度量水下图像质量的指标,UIQM将色彩指标、清晰度指标和对比度指标进行线性加权组合,能较准确地评价水下图像的质量;UIQM值越大,水下图像的整体质量越好。各方法对图 4所示的水下图像进行增强后,对应的UIQM如图 7所示。文献[10]方法的UIQM值较低,对水下图像的整体增强性能不理想。文献[6]、[11]和[13]方法的UIQM值之间相差不大,但是总体上以文献[6]方法最高、文献[11]和[13]方法次之。相对地,本文方法的UIQM值高于其它方法,整体的增强效果更优。
3.5 SSIM
SSIM是有参度量指标,度量增强图像与参考图像在纹理结构上的相似性,值越大,两图像越相似。对于图 4中的水下图像,其中场景二、三、四和五有参考图像,各方法对应的SSIM值如表 1所示。其中,文献[10]方法的SSIM值较小,这是由图像较暗的亮度所致。文献[13]方法的SSIM值相对偏低,很明显,其亮度和对比度不高。文献[11]方法的SSIM值处于中等,虽然其图像的清晰度较高,但是产生了部分过增强和颜色过鲜艳,破坏了部分图像信息。文献[6]方法的SSIM值相对较高。本文方法高于所有方法,其对图像的纹理结构和细节信息恢复得较好。
3.6 与基准方法的比较
文献[17]除了构建一个数据集UIEB之外,还根据构建的数据集提出了一种基于卷积神经网络的水下图像增强模型Water-Net,作为水下图像增强的基准方法。将本文方法与Water-Net应用于部分水下图像,得到的效果如图 8所示,其中Water-Net的结果图像采自于原文数据。图 8的第一行为原水下图像,第二行和第三行分别为本文方法和Water-Net的增强图像。通过仔细的对比,两种方法的增强效果相差不大,各有特色。总体上,本文方法的增强图像对比度和清晰度稍高,但是色彩偏鲜艳,而Water-Net的增强图像的色彩较真实自然,但是对比度和清晰度相对偏低。
根据以上对主观的视觉感知和客观的信息熵、平均梯度、UIQM和SSIM的比较分析可知,本文方法能更有效地对水下图像进行颜色校正,恢复颜色的自然度,且在避免欠增强和过增强的同时,更好地提升图像的对比度和清晰度,图像的纹理结构和细节信息更丰富。
4. 结论
为了有效地改善水下图像的颜色和进一步提升图像的对比度和清晰度,提出了改进直方图匹配和自适应直方图均衡的水下图像增强方法。以像素均值最大的通道图像的直方图作为基准,对通道图像分别进行直方图匹配;在HSI颜色空间中对明度分量I进行自适应的局部直方图均衡化。主、客观的实验数据和比较分析证明了本文方法相对于部分现有方法的有效性和优越性,本文方法具有更好的水下图像增强性能。将本文方法作进一步的改进,用于红外图像增强和图像超分辨率重建,是课题组下一步的研究工作。
-
表 1 模型训练环境
Table 1 Model training environment
Indicator Parameters CPU AMD Ryzen7 5800H GPU NVIDIA RTX 3060 RAM size 16G VRAM size 6GB CUDA vision 10.0 Deep learning framework Tensorflow-gpu-2.3.0 Batch size 16 Optimization algorithm Adam Learning rate 0.0001 Decay rate 0.9 表 2 各网络内存消耗
Table 2 Memory consumption of each network
Network Weight/kB Feature-map /M LMDM(Ours) 0.3672 1.7500 Unet 0.8476 5.5000 MobleNetV1 0.9883 4.6875 MobileNetV3 1.1875 4.5000 ConvNet 11.5078 21.7500 GhostNet 2.0156 20.5000 表 3 网络校正速度和内存对比
Table 3 Network correction speed and memory comparison
Algorithm Time-consuming of
100 images/sNetwork consumes
memory/MBOurs 2.17 49.82 Unet 3.73 182.36 RAN 2.89 518.85 表 4 各算法平均PSNR和SSIM
Table 4 PSNR and SSIM of each algorithm
Algorithms PSNR SSIM Ours 34.25 0.9230 Unet 34.20 0.9306 BFTH 32.93 0.8285 DLS 34.38 0.8881 RAN 34.51 0.9128 表 5 各算法平均粗糙度指标
Table 5 Roughness of each algorithm
Algorithms BFTH DLS RAN Unet Ours Roughness 0.1176 0.1052 0.1052 0.0972 0.0933 -
[1] 樊凡. 基于场景的红外非均匀性校正算法研究[D]. 武汉: 华中科技大学, 2015. FAN Fan. Research on the Infrared Scene Based Nonuniformity Correction Algorithm[D]. Wuhan: Huazhong University of Science and Technology, 2015.
[2] HOU Huixin, LI Qing, LIU Shangqian, et al. Nonuniformity and its correction principle of infrared focal plane arrays[J]. Laser & Infrared, 2003, 3(6): 46-48.
[3] ZHOU Huixin, LI Qing, LIU Shangqian, et al. Nonuniformity and its correction principle of infrared focal plane arrays[J]. Laser & Infrared, 2003, 3(6): 46-48.
[4] Scribner D A, Sarkady K A, Kruer M R, et al. Adaptive nonuniformity correction for IR focal-plane arrays using neural networks[C]//International Society for Optics and Photonics, 1991: 100-109.
[5] 牟新刚, 崔健, 周晓. 基于全卷积网络的红外图像非均匀性校正算法[J]. 红外技术, 2022, 44(1): 21-27. http://hwjs.nvir.cn/cn/article/id/1dc81b37-2449-459f-a97a-284832f6be2e MOU Xingang, CUI Jian, ZHOU Xiao. Infrared image non-uniformity correction algorithm based on full convolutional network[J]. Infrared Technology, 2022, 44(1): 21-27. http://hwjs.nvir.cn/cn/article/id/1dc81b37-2449-459f-a97a-284832f6be2e
[6] 陆俊杰. 基于深度学习的红外探测器非均匀性校正算法研究[D]. 武汉: 武汉理工大学, 2020. LU Junjie. Nonuniform Image Correction for Infrared Detector Based on Deep Learning[D]. Wuhan: Wuhan University of Technology, 2020.
[7] HE Zewei, CAO Yanpeng, DONG Jiangxin, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: a deep-learning approach[J]. Applied Optics, 2018, 57(18): 155-164. DOI: 10.1364/AO.57.00D155
[8] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI, 2015: 234-241.
[9] JIE H, LI S, GANG S. Squeeze-and-Excitation Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 42(8): 2011-2023.
[10] JIANG Y, TAN Z, WANG J, et al. GiraffeDet: a heavy-neck paradigm for object detection[J/OL]. arXiv, 2022, https://www.researchgate.net/publication/358493689_GiraffeDet_A_Heavy-Neck_Paradigm_for_Object_Detection.
[11] LIU F, XU H, QI M, et al. Depth-wise separable convolution attention module for garbage image classification[J]. Sustainability, 2022, 14(5): 1-18.
[12] Szegedy C, LIU W, JIA Y, et al. Going deeper with convolutions[J/OL]. IEEE Computer Society, 2014, https://ieeexplore.ieee.org/document/7298594.
[13] Bal A, Alam M S. Automatic target tracking in FLIR image sequences[C]//Proceedings of SPIE - The International Society for Optical Engineering, 2005, 54(5): 1846-1852.
[14] Berg A, Ahlberg J, Felsberg M. A thermal object tracking benchmark[C]// IEEE International Conference on Advanced Video & Signal Based Surveillance, 2015, DOI: 10.1109/AVSS.2015.7301772.
[15] Channappayya S S, Bovik A C, Heath R W. Rate bounds on SSIM index of quantized images[J]. IEEE Transactions on Image Processing, 2008, 17(9): 1624-1639. DOI: 10.1109/TIP.2008.2001400
[16] Mathieu M, Couprie C, Lecun Y. Deep multi-scale video prediction beyond mean square error[C/OL]//ICLR, 2016, http://arxiv.org/pdf/1511.05440.pdf.
[17] 崔健. 基于深度学习的红外探测器非均匀性校正算法研究[D]. 武汉: 武汉理工大学, 2021. CUI Jian. Research on Non-Uniformity Correction Algorithm of Infrared Detector Based on Deep Learning[D]. Wuhan: Wuhan University of Technology, 2021.
[18] Howard A G, ZHU M, Chen B. et al. MobileNets: efficient convolutional neural networks for mobile vision applications[J/OL]. arXiv preprint arXiv: 1704.04861, 2017, https://arxiv.org/abs/1704.04861.
[19] Howard A, Sandler M, Chu G et al. Searching for MobileNetV3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019: 1314-1324.
[20] LIU Z, MAO H, WU C Y, et al. A ConvNet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022: 11966-11976.
[21] HAN K, WANG Y, TIAN Q, et al. GhostNet: more features from cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020: 1577-1586.
[22] ZUO C, CHEN Q, GU G, et al. New temporal high-pass filter nonuniformity correction based on bilateral filter[J]. Optical Review, 2011, 18: 197-202. DOI: 10.1007/s10043-011-0042-y
[23] HE Zewei, CAO Yanpeng, DONG Yafei, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: a deep-learning approach[J]. Applied Optics, 2018, 57: D155-D164. DOI: 10.1364/AO.57.00D155
[24] XU K, ZHAO Y, LI F, et al. Single infrared image stripe removal via deep multi-scale dense connection convolutional neural network[J]. Infrared Physics and Technology, 2022(121): 104008-104008. Doi: 10.1016/j. infrared.2021.104008.
-
期刊类型引用(3)
1. 张旭辉,解彦彬,杨文娟,张超,万继成,董征,王彦群,蒋杰,李龙. 煤矿井下采掘工作场景非均质图像去雾与增强技术. 煤田地质与勘探. 2025(01): 245-256 . 百度学术
2. 张福林,何云,彭望,曹胜中,刘卫国,孙鹏. 基于改进直方图和模糊估计的多层次水下图像增强方法. 无线电工程. 2025(03): 540-547 . 百度学术
3. 梁秀满,赵佳阳,于海峰. 基于YOLOv8的轻量化水下目标检测算法. 红外技术. 2024(09): 1015-1024 . 本站查看
其他类型引用(0)