Infrared Image Non-uniformity Correction Algorithm Based on Lightweight Multiscale Downsampling Network
-
摘要:
红外成像系统常由于探测单元的非均匀性导致成像结果出现条纹噪声。基于深度学习的红外图像非均匀校正算法为取得较好的校正结果,通常采用复杂度高的网络结构,导致计算量庞大。本文提出了一种轻量化网络的红外图像非均匀校正算法,并针对Unet网络的编码过程设计了一种轻量化多尺度下采样模块(Lightweight Multi-scale Downsampling Module, LMDM)。LMDM通过像素拆分和通道重构实现特征图下采样,利用多个串联的深度可分离卷积(Depth-wise Separable Convolution, DSC)实现多尺度特征提取。此外,该算法引入轻量化通道注意力机制用于调整特征权重,实现更好的上下文信息融合。实验结果表明,与对比算法相比,本文提出的算法在保证校正图像纹理清晰、细节丰富和边缘锐利的前提下,内存占用降低70%以上,红外图像处理速度提升24%以上。
Abstract:Infrared imaging systems often produce fringe noise in imaging results owing to the non-uniformity of the detection unit. To obtain better correction results, most deep learning-based infrared image non-uniformity correction algorithms adopt complex network structures, which increase the computational cost. This study proposes a lightweight network-based infrared image non-uniformity correction algorithm and designs a lightweight multi-scale downsampling module (LMDM) for the encoding process of the Unet network. The LMDM uses pixel splitting and channel reconstruction to realize feature map downsampling and realizes multi-scale feature extraction using multiple cascaded depth-wise separable convolutions (DSC). In addition, the algorithm introduces a lightweight channel attention mechanism for adjusting feature weights to achieve better contextual information fusion. The experimental results show that the proposed algorithm reduces memory use by more than 70% and improves the processing speed of the infrared images by more than 24% compared with the comparison algorithm while ensuring that the corrected image has a clear texture, rich details, and sharp edges.
-
0. 引言
随着红外技术的发展,红外成像系统具有良好的大气穿透性、天气适应性和抗干扰能力,在工业、农业、军事等领域有着越来越广泛的应用。但系统设计、元器件制作、材料加工等多方面的原因导致红外成像系统无法避免地存在非均匀性噪声[1]。现阶段针对红外图像的非均匀校正算法主要分为3类,分别为基于标定的、基于场景的和基于深度学习的校正算法。
基于标定的校正算法实现简单,常见的有单点校正[2]和两点校正[3]。该类方法基于线性标定校正结果较差。此外,当系统长期工作或环境改变后,需要重新标定并对系统再次校正。
基于场景的校正算法是利用当前帧或之前几帧图像进行非均匀校正。相对于基于标定的算法,该算法具有更好的鲁棒性,解决了重新标定的问题,但仍存在缺陷。如时域高斯滤波算法容易导致“重影”、“鬼影”等问题[4]。此外,基于场景的校正算法大多依靠多帧图像进行校正,算法复杂度较大,难以实现实时校正。
基于深度学习的校正算法是利用生成式卷积神经网络,实现单帧红外图像非均匀校正。如崔健等人[5]利用全卷积神经网络对红外图像实现单帧校正。陆俊杰等人[6]则是结合生成对抗网络的思想,增加判别器,有效提高了算法的校正结果。此类算法鲁棒性较高,且避免了对先验知识的依赖,但其往往需要设计较为复杂的生成模型,整体计算量较大。
为解决现阶段基于深度学习的校正算法复杂度较高的问题,本文提出了一种轻量化红外图像校正算法。该算法首先通过轻量化的下采样模块提取红外图像的特征,然后使用反卷积操作对特征图进行上采样,从而实现红外图像非均匀校正。实验结果表明,该算法能够有效地消除噪声,提高图像质量,并且降低了计算复杂度和内存占用。
1. 非均匀性噪声分析
红外成像系统通过焦平面探测单元接收不同强度的辐射,并将其输出的电信号经过放大、滤波、采样等处理,转换为可视化的灰度图像。探测单元对红外辐射的响应[7]为:
$$ y_{i,j}(n)=A_{i,j}χ_{i,j}(n)+B_{i,j}(n) $$ (1) 式中:χi, j(n)为探测单元的接受到的红外辐射强度;yi, j(n)为对应的输出;Ai, j为像元增益;Bi, j为像元偏置。
受红外成像系统的材料和制作工艺限制,不同探测单元对均匀辐射会产生不同的响应。因此,在放大电路对探测单元响应信号和电路噪声进行放大后,成像结果中会存在明显的条纹噪声,即红外图像非均匀噪声。
2. 轻量化红外图像校正算法设计
2.1 网络结构
本文提出了一种基于Unet模型[8]的轻量化红外图像非均匀校正算法,该算法可分为两个阶段:下采样特征提取阶段对输入的单帧红外图像进行特征提取;上采样图像重建阶段使用反卷积操作对特征图进行图像重建。此外,为了提高网络上下文信息提取的能力,在上采样阶段使用跳跃连接进行特征融合,并在部分跳跃连接中引入改进的通道注意力机制[9]对特征通道权重进行调整。整体网络结构如图 1所示。
在原始Unet网络中,每个下采样模块由卷积层和池化层组成。其中,卷积层包含批归一化和Relu激活函数,实现特征提取;池化层实现特征下采样。为了减少网络参数量和计算量,本文对下采样过程进行轻量化改进,提出了一种轻量化多尺度下采样模块,其结构如图 2所示。
本文针对跳跃连接中的注意力机制进行轻量化改进,改进后结构如图 3所示。该结构首先使用全局平均池化和全局最大池化对尺寸为H×W×C的输入特征图进行通道降维,得到两个1×1×C的通道权重;将两个通道权重拼接后,利用一维卷积实现特征融合和权重调整;最后将通道权重与原始特征图相乘,得到新的特征。
2.2 LMDM结构设计
本文设计的LMDM主要分为3个阶段:下采样阶段、通道重构阶段和多尺度特征提取阶段。
下采样阶段是基于图像中相邻像素具有空间相似性,利用Jiang等人提出的Space_to_depth(STD)算法[10]对图像特征进行下采样。该算法将图像划分为若干个2×2大小的子区域,并将每个子区域中的四个像素按照深度连接方式分配到四个不同通道中,其流程如图 4所示。STD算法可以有效地减小特征图在二维空间上的尺寸,同时增加特征图在三维通道上的数量,并且不会对图像结构特征造成较大损失。
通道重构阶段是利用卷积层对STD的输出特征进行通道压缩和提取特征。该阶段利用1×1卷积层将输出通道数减少到LMDM预定输出通道的1/4。同时使用卷积操作可消除通道间的冗余信息。随后LMDM对重构后的特征进行进一步提取。
多尺度特征提取阶段是基于DSC[11]实现的轻量化设计。DSC是一种轻量化卷积操作,由两步组成:第一步对每个通道的特征图进行深度卷积,得到相应的子图;第二步是将子图拼接后用逐点卷积的方法对不同通道的特征进行线性组合,得到新的特征。图 5展示了深度可分离卷积流程。
多尺度特征提取往往采用并列结构[12],利用不同尺寸的卷积核对特征图进行特征提取,并将输出特征拼接后进行融合降维。为降低复杂度,本文用串联结构实现多尺度特征提取。如图 6所示,使用两个3×3卷积层串联后,输出特征的感受野等同于一个5×5卷积层,并且计算复杂度更低。
综上可知,LMDM利用深度可分离卷积技术使用一个1×1和3个3×3的串联卷积对特征图进行多尺度特征提取,随后将提取后的特征进行拼接获得输出特征,其流程如图 7所示。
2.3 LMDM复杂度分析
对所设计的LMDM进行复杂度分析。假设输入特征图大小为2D×2D×C1,输出特征图大小为D×D×C2。其中,多尺度特征提取阶段实现感受野大小分别为1×1、3×3、5×5和7×7的多尺度特征提取。
首先,STD算法对输入特征进行下采样,并输出D×D×4C1的特征图。该步骤仅对特征进行遍历操作,计算复杂度为:
$$ O(n)_{\rm STD}=4D^{2}$$ (2) 随后,利用1×1的标准卷积层对输出特征进行通道重构获得D×D×C2/4的重构特征,其计算复杂度为:
$$ O(n)_{\rm RE}=D×D×4C_{1}×C_{2}/4×1×1 $$ (3) 紧接着,LMDM使用一个1×1和3个3×3的串联DSC对重构特征进行多尺度特征提取。其中,单次DSC的复杂度计算公式为:
$$ O(n)_{\rm DPC}=O(n)_{\rm Depth}+O(n)_{\rm Point} $$ (4) 当卷积核大小为1×1时,DSC计算复杂度为:
$$ \begin{array}{l} O{\left( n \right)_{{\text{DPC}} - 1 \times 1}} = D \times D \times \frac{{{C_2}}}{4} \times 1 \times 1 + \hfill \\ \quad \quad \frac{{{C_2}}}{4} \times \frac{{{C_2}}}{4} \times 1 = {C_2}\left( {{D^2}/4 + {C_2}/16} \right) \end{array} $$ (5) 同理,卷积核大小选取3×3时,DSC计算复杂度为:
$$ O(n)_{\rm DPC-3×3}=9C_{2}(D^{2}/4+C_{2}/16) $$ (6) 因此多尺度特征提取阶段的计算复杂度为:
$$ O(n)_{\rm Multi}=7C_{2}D^{2}+7C_{2}^{2}/4$$ (7) 最终LMDM总体计算复杂度为:
$$\begin{align} O(n)_{\rm Ours}=&O(n)_{\rm STD}+O(n)_{\rm Re}+O(n)_{\rm Multi}= \\ & 4D^{2}+C_{1}C_{2}D^{2}+7C_{2}D^{2}+7C_{2}^{2}/4 \end{align}$$ (8) 传统下采样模块仅通过卷积层和池化层实现,假设其仅通过一个卷积层进行特征提取,此时计算复杂度为:
$$ O(n)_{\rm Ori}=O(n)_{\rm conv}+O(n)_{\rm pooling}=36C_{1}C_{2}D^{2}+4D^{2} (9) $$ (9) 通过分析可知,相较于传统下采样特征提取模块,本文提出的LMDM复杂度明显降低。此外,LMDM引入了多尺度特征提取,可以获得更多的纹理细节。
2.4 损失函数
针对生成图像的结构、纹理特性,模型选用均方误差作为损失函数,计算公式为:
$$ L = \frac{1}{{mn}}\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {{{\left( {{y_{i,j}} - {x_{i,j}}} \right)}^2}} } $$ (10) 式中:m和n分别为图像的宽度和长度;yi, j为理想红外图像像素值;xi, j为输出图像像素值。
为增加生成图像的细节信息并去除小噪声,损失函数引入L1损失,计算公式为:
$$ {L_{{\text{L1}}}}\left( G \right) = {E_{x,y,z}}\left[ {\left\| {y - G\left( {x,z} \right)} \right\|} \right] $$ (11) 最终算法损失函数为:
$$ \text{Loss}=L+λL_{L1}$$ (12) 式中:λ为L1损失函数的系数。
3. 实验设计
3.1 数据集制作
模型训练使用的数据包括公开数据集和团队自主拍摄的数据集。其中,公开数据集有FLIR[13]和LTIR[14],其具有场景多样性和图像质量高的特点。自主拍摄的数据集是基于艾睿光电公司RTD611型红外焦平面阵列研发的长波(8~14 μm)红外探测器采集的真实红外图像。最终,本文从上述数据集中挑选了5000张优质的图像,通过翻转、镜像、裁切等图像增强技术将其扩充至10000张,并按照6:2:2的比例将数据集划分为训练集、测试集和验证集。
本文将数据集图像转换为单通道8位灰度图后,按照1:1的比例裁剪成正方形,并将其大小缩放到256×256。随后为数据集中的图像添加均值为0、标准差在[0.02, 0.10]范围内变化的模拟条纹噪声。
3.2 模型训练
模型搭建和训练基于TensorFlow深度学习框架,具体硬件选择、环境配置和超参数设置如表 1所示。
表 1 模型训练环境Table 1. Model training environmentIndicator Parameters CPU AMD Ryzen7 5800H GPU NVIDIA RTX 3060 RAM size 16G VRAM size 6GB CUDA vision 10.0 Deep learning framework Tensorflow-gpu-2.3.0 Batch size 16 Optimization algorithm Adam Learning rate 0.0001 Decay rate 0.9 3.3 校正效果评价指标
本文从定量评价和定性评价双方面对红外图像的校正结果进行评判。
定性评价主要通过肉眼观察图像的对比度、纹理结构、模糊程度和噪声残留等特征进行判断。此方法受到评价者主观因素的影响较大,缺乏稳定性。
定量评价则是使用客观指标对校正结果进行量化显示,主要评价指标有结构相似性(Structural Similarity, SSIM)[15]和峰值信噪比(Peak Signal to Noise Ratio, PSNR)[16]和粗糙度(Roughness)[17]。
结构相似性计算公式为:
$$ \text{SSIM}(X,Y)=l(X,Y)⋅c(X,Y)⋅s(X,Y)$$ (13) SSIM分别从图像的亮度、对比度和结构3个方面对图像进行评价。SSIM值越大,表明两张图像越相似。l(X, Y)、c(X, Y)和s(X, Y)的计算公式分别为:
$$ l\left( {X,Y} \right) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_1}}} $$ (14) $$ c\left( {X,Y} \right) = \frac{{2{\delta _x}{\delta _y} + {C_2}}}{{\delta _x^2 + \delta _y^2 + {C_2}}} $$ (15) $$ s\left( {X,Y} \right) = \frac{{{\delta _{xy}} + {C_3}}}{{{\delta _x}{\delta _y} + {C_3}}} $$ (16) 式中:μx,μy是图像x、y的所有像素平均值;δx,δy是所有像素的标准差值;δxy为对应像素的协方差值,C1、C2、C3为常数,可以避免分母为0。
峰值信噪比计算方法为:
$$ {\text{PSNR}} = 10 \times \lg \left[ {\frac{{{{\left( {{2^n} - 1} \right)}^2}}}{{{\text{MSE}}}}} \right] $$ (17) 式中:n为比特数,MSE为均方差。MSE计算公式为:
$$ {\text{MSE}} = \frac{1}{{mn}}\sum\limits_{i = 0}^{m - 1} {\sum\limits_{j = 0}^{n - 1} {{{\left\| {X\left( {i,j} \right) - Y\left( {i,j} \right)} \right\|}^2}} } $$ (18) 式中:X,Y分别为校正后图像和理想图像;m,n为图像的宽和高。峰值信噪比数值越高,表明非均匀校正校正质量越好。
粗糙度指标是一种不依赖理想图像的质量评价方法,它仅根据当前图像的像素值来计算。粗糙度反映了图像的非均匀程度,数值越小说明非均匀校正效果越好。其计算公式如下:
$$ {\text{Roughness}} = \frac{{{{\left\| {\boldsymbol{h}*\boldsymbol{Y}} \right\|}_1} + {{\left\| {{\boldsymbol{h}^{\text{T}}}*\boldsymbol{Y}} \right\|}_2}}}{{{{\left\| \boldsymbol{Y} \right\|}_1}}} $$ (19) 式中:h为[-1, 1]的水平矩阵;hT为h的转置矩阵;Y为校正后红外图像像素矩阵;*表示矩阵卷积操作。
3.4 对比算法
在实验分析中,本文设计两组对比实验。第一组实验用于分析LMDM的内存占用情况,并与原始Unet网络下采样模块(Conv+Pooling)以及主流轻量级卷积神经网络中的下采样特征提取模块进行对比,包括MobleNetV1[18]、MobileNetV3[19]、ConvNet[20]和GhostNet[21]。第二组实验旨在评估红外图像非均匀校正效果,选取时域高通滤波算法(Bilateral Filter Thermal Handling NUC, BFTH)[22]、条带噪声校正算法(Signal-image-based NUC, DLS)[23]、Unet网络校正算法(Unet)[8]和基于注意力机制的残差多尺度校正算法(Residual Attention Network NUC, RAN)[24]与本文算法进行对比。其中BFTH和DLS算法是目前较为成熟的红外图像非均匀校正算法,RAN算法是2022年最新提出的红外图像校正算法。
4. 实验结果与分析
本文从网络复杂度、定量评价和定性评价3个方面进行对提出的算法校正效果评价。
4.1 网络复杂度分析
为了分析LMDM的内存占用情况,实验使用六种下采样模块对256×256×1的输图像进行特征提取,得到128×128×8的输出特征,并统计各模块的内存占用,结果如表 2所示。
表 2 各网络内存消耗Table 2. Memory consumption of each networkNetwork Weight/kB Feature-map /M LMDM(Ours) 0.3672 1.7500 Unet 0.8476 5.5000 MobleNetV1 0.9883 4.6875 MobileNetV3 1.1875 4.5000 ConvNet 11.5078 21.7500 GhostNet 2.0156 20.5000 表 2显示,LMDM的内存占用最低,其权重占用内存和特征图占用内存分别只有Unet网络下采样模块的43%和32%。
进一步地,为了验证本文提出的LMDM和改进通道注意力机制对网络加速的效果,实验从验证集中随机选取100张图片,分别与原始Unet算法和RAN算法进行了网络内存占用和运行速度的测试分析。测试结果如表 3所示。
表 3 网络校正速度和内存对比Table 3. Network correction speed and memory comparisonAlgorithm Time-consuming of
100 images/sNetwork consumes
memory/MBOurs 2.17 49.82 Unet 3.73 182.36 RAN 2.89 518.85 通过表 3可知,本文提出的算法内存占用相比原始Unet算法降低了70%以上。而RAN算法则消耗内存最多,是本文算法的10倍。在100张图像校正耗时方面,本文提出的算法也表现出最快的单帧处理速度,仅需2.1 s即可完成100张图像的校正,处理速度相比RAN算法提升了24%以上。
通过网络复杂度分析可以证明,LMDM具有较低的内存占用。且基于LMDM和改进注意力机制模块构建的红外校正算法在运行速度和内存占用上均优于其他基于深度学习的校正算法。
4.2 定量评价
为了评价各个算法的校正效果,本文计算了100张验证集图像校正后的SSIM和PSNR指标,并给出了其平均值,如表 4所示。图 8、图 9分别显示了各个算法在验证集上的PSNR和SSIM指标。
表 4 各算法平均PSNR和SSIMTable 4. PSNR and SSIM of each algorithmAlgorithms PSNR SSIM Ours 34.25 0.9230 Unet 34.20 0.9306 BFTH 32.93 0.8285 DLS 34.38 0.8881 RAN 34.51 0.9128 从表 4中可以看出,在验证集上,基于场景的BFTH算法效果最差,RAN算法和Unet算法在PSNR和SSIM两个指标上都有较好的表现。DLS算法的PSNR值较高,但SSIM值较低。本文提出的算法在SSIM上仅略低于Unet算法,在PSNR上优于原始Unet网络。
从图 8和图 9可以看出,在各种红外图像非均匀校正算法的比较中,传统的BFTH算法表现最差,各项指标均低于其他方法,且数值波动幅度大,表明鲁棒性不足。在SSIM方面,各算法的表现则有明显的区别。DLS算法虽然在PSNR上较高,但在SSIM上仅略优于BFTH算法。本文提出的算法与Unet算法相近,在SSIM上均优于其他方法。在PSNR方面,本文提出的算法与Unet、RAN、DLS三种算法相差较小。
本文采用100张真实红外图像验证本文算法在实际红外成像系统中的效果。由于缺少理想红外图像作为参考,采用粗糙度对真实红外图像的校正质量进行定量评价。表 5和图 10分别给出了各算法校正后图像的平均粗糙度和具体数值。从粗糙度的对比可以看出,本文算法在真实红外图像校正方面优于其他算法。
表 5 各算法平均粗糙度指标Table 5. Roughness of each algorithmAlgorithms BFTH DLS RAN Unet Ours Roughness 0.1176 0.1052 0.1052 0.0972 0.0933 综上可知,本文算法在定量评价上优于其他几种校正算法,尤其是在PSNR指标和粗糙度指标上有显著的优势。虽然在SSIM指标上略逊于Unet算法,但差距不大。
4.3 定性评价
为验证本文算法和其他对比算法的校正效果,本文从公开数据集和实验室采集的真实红外图像中选择部分数据进行定性评价。
团队从公开数据集中选取一张结构复杂的建筑图像作为测试图像,其包含丰富的纹理细节和建筑结构信息,以及部分天空背景信息。在该图像上添加模拟非均匀噪声后,得到待校正的红外图像。经过各个算法校正后,结果如图 11所示。从图 11(b)可以看出,BFTH算法不能有效消除低频条纹噪声,并且导致右侧图像模糊和建筑信息缺失。DLS算法去除了大部分噪声,但是右侧出现网格状伪影,并且树木纹理不完整。RAN算法较好地去除了噪声,但是仍有残留,并且图像纹理信息不清晰。Unet算法和本文提出的算法均能干净地消除噪声,并且保持了较好的建筑结构和树叶纹理。
随后,为了验证各类算法在实际红外成像系统中的应用效果,团队使用实验室自主研发的红外成像系统进行非均匀校正算法测试,结果如图 12所示。其中,图 12(a)为红外成像系统获取的原始图像,可以看出该图像存在明显的条纹噪声。经过BFTH算法校正后,部分噪声被去除,但是图像过度平滑,草地纹理模糊不清,并且仍有残留噪声。DLS算法校正结果中出现网格状伪影,且图像对比度增强,部分区域亮度变化明显。RAN算法校正后,大部分噪声被消除,但是仍有明显条纹噪声和少量残留噪声。Unet算法非均匀噪声消除表现良好,并且较好地复原草地、树叶等信息。本文提出的算法校正效果如图 12(f)所示,其同样有效实现了非均匀噪声消除,并较好地保留了图像纹理信息。
通过定性评价可知,在红外图像测试上可知其校正结果已经较好地消除条纹噪声,且有效地保留了图像原始的纹理细节,噪声残留较少且未引入新的噪声。
5. 结论
本文提出了一种基于轻量化多尺度下采样网络的红外图像非均匀校正算法。LMDM采用STD算法下采样特征,并用多个DSC串联提取多尺度特征。同时,本文对通道注意力机制进行改进,利用全局平均池化和全局最大池化压缩通道,并用一维卷积学习通道权重,既降低了计算复杂度,又增强了网络的特征区分能力。实验结果表明,本文提出的算法校正后的图像具有良好的PSNR、SSIM和粗糙度指标。校正后的红外图像细节清晰、结构完整,有效地去除了噪声。此外,该算法在内存占用和处理速度上优于现有的深度学习算法,在保证校正效果的同时,实现了网络轻量化。
-
表 1 模型训练环境
Table 1 Model training environment
Indicator Parameters CPU AMD Ryzen7 5800H GPU NVIDIA RTX 3060 RAM size 16G VRAM size 6GB CUDA vision 10.0 Deep learning framework Tensorflow-gpu-2.3.0 Batch size 16 Optimization algorithm Adam Learning rate 0.0001 Decay rate 0.9 表 2 各网络内存消耗
Table 2 Memory consumption of each network
Network Weight/kB Feature-map /M LMDM(Ours) 0.3672 1.7500 Unet 0.8476 5.5000 MobleNetV1 0.9883 4.6875 MobileNetV3 1.1875 4.5000 ConvNet 11.5078 21.7500 GhostNet 2.0156 20.5000 表 3 网络校正速度和内存对比
Table 3 Network correction speed and memory comparison
Algorithm Time-consuming of
100 images/sNetwork consumes
memory/MBOurs 2.17 49.82 Unet 3.73 182.36 RAN 2.89 518.85 表 4 各算法平均PSNR和SSIM
Table 4 PSNR and SSIM of each algorithm
Algorithms PSNR SSIM Ours 34.25 0.9230 Unet 34.20 0.9306 BFTH 32.93 0.8285 DLS 34.38 0.8881 RAN 34.51 0.9128 表 5 各算法平均粗糙度指标
Table 5 Roughness of each algorithm
Algorithms BFTH DLS RAN Unet Ours Roughness 0.1176 0.1052 0.1052 0.0972 0.0933 -
[1] 樊凡. 基于场景的红外非均匀性校正算法研究[D]. 武汉: 华中科技大学, 2015. FAN Fan. Research on the Infrared Scene Based Nonuniformity Correction Algorithm[D]. Wuhan: Huazhong University of Science and Technology, 2015.
[2] HOU Huixin, LI Qing, LIU Shangqian, et al. Nonuniformity and its correction principle of infrared focal plane arrays[J]. Laser & Infrared, 2003, 3(6): 46-48.
[3] ZHOU Huixin, LI Qing, LIU Shangqian, et al. Nonuniformity and its correction principle of infrared focal plane arrays[J]. Laser & Infrared, 2003, 3(6): 46-48.
[4] Scribner D A, Sarkady K A, Kruer M R, et al. Adaptive nonuniformity correction for IR focal-plane arrays using neural networks[C]//International Society for Optics and Photonics, 1991: 100-109.
[5] 牟新刚, 崔健, 周晓. 基于全卷积网络的红外图像非均匀性校正算法[J]. 红外技术, 2022, 44(1): 21-27. http://hwjs.nvir.cn/cn/article/id/1dc81b37-2449-459f-a97a-284832f6be2e MOU Xingang, CUI Jian, ZHOU Xiao. Infrared image non-uniformity correction algorithm based on full convolutional network[J]. Infrared Technology, 2022, 44(1): 21-27. http://hwjs.nvir.cn/cn/article/id/1dc81b37-2449-459f-a97a-284832f6be2e
[6] 陆俊杰. 基于深度学习的红外探测器非均匀性校正算法研究[D]. 武汉: 武汉理工大学, 2020. LU Junjie. Nonuniform Image Correction for Infrared Detector Based on Deep Learning[D]. Wuhan: Wuhan University of Technology, 2020.
[7] HE Zewei, CAO Yanpeng, DONG Jiangxin, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: a deep-learning approach[J]. Applied Optics, 2018, 57(18): 155-164. DOI: 10.1364/AO.57.00D155
[8] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI, 2015: 234-241.
[9] JIE H, LI S, GANG S. Squeeze-and-Excitation Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 42(8): 2011-2023.
[10] JIANG Y, TAN Z, WANG J, et al. GiraffeDet: a heavy-neck paradigm for object detection[J/OL]. arXiv, 2022, https://www.researchgate.net/publication/358493689_GiraffeDet_A_Heavy-Neck_Paradigm_for_Object_Detection.
[11] LIU F, XU H, QI M, et al. Depth-wise separable convolution attention module for garbage image classification[J]. Sustainability, 2022, 14(5): 1-18.
[12] Szegedy C, LIU W, JIA Y, et al. Going deeper with convolutions[J/OL]. IEEE Computer Society, 2014, https://ieeexplore.ieee.org/document/7298594.
[13] Bal A, Alam M S. Automatic target tracking in FLIR image sequences[C]//Proceedings of SPIE - The International Society for Optical Engineering, 2005, 54(5): 1846-1852.
[14] Berg A, Ahlberg J, Felsberg M. A thermal object tracking benchmark[C]// IEEE International Conference on Advanced Video & Signal Based Surveillance, 2015, DOI: 10.1109/AVSS.2015.7301772.
[15] Channappayya S S, Bovik A C, Heath R W. Rate bounds on SSIM index of quantized images[J]. IEEE Transactions on Image Processing, 2008, 17(9): 1624-1639. DOI: 10.1109/TIP.2008.2001400
[16] Mathieu M, Couprie C, Lecun Y. Deep multi-scale video prediction beyond mean square error[C/OL]//ICLR, 2016, http://arxiv.org/pdf/1511.05440.pdf.
[17] 崔健. 基于深度学习的红外探测器非均匀性校正算法研究[D]. 武汉: 武汉理工大学, 2021. CUI Jian. Research on Non-Uniformity Correction Algorithm of Infrared Detector Based on Deep Learning[D]. Wuhan: Wuhan University of Technology, 2021.
[18] Howard A G, ZHU M, Chen B. et al. MobileNets: efficient convolutional neural networks for mobile vision applications[J/OL]. arXiv preprint arXiv: 1704.04861, 2017, https://arxiv.org/abs/1704.04861.
[19] Howard A, Sandler M, Chu G et al. Searching for MobileNetV3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019: 1314-1324.
[20] LIU Z, MAO H, WU C Y, et al. A ConvNet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022: 11966-11976.
[21] HAN K, WANG Y, TIAN Q, et al. GhostNet: more features from cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020: 1577-1586.
[22] ZUO C, CHEN Q, GU G, et al. New temporal high-pass filter nonuniformity correction based on bilateral filter[J]. Optical Review, 2011, 18: 197-202. DOI: 10.1007/s10043-011-0042-y
[23] HE Zewei, CAO Yanpeng, DONG Yafei, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: a deep-learning approach[J]. Applied Optics, 2018, 57: D155-D164. DOI: 10.1364/AO.57.00D155
[24] XU K, ZHAO Y, LI F, et al. Single infrared image stripe removal via deep multi-scale dense connection convolutional neural network[J]. Infrared Physics and Technology, 2022(121): 104008-104008. Doi: 10.1016/j. infrared.2021.104008.