Infrared Small Target Detection Method with Vision Transformer and Dual Decoder
-
摘要:
当前基于卷积神经网络的红外小目标检测方法在编码器阶段受限于感受野,且解码器在多尺度特征融合中缺乏有效的特征交互。本文提出了一种基于编码器-解码器结构的新方法,针对现有红外小目标检测方法中的问题进行改进。该方法使用视觉Transformer作为编码器,能够有效地提取红外小目标图像的多尺度特征。视觉Transformer是一种新兴的深度学习架构,其通过自注意力机制捕捉图像中像素之间的全局关系,以处理长程依赖性和上下文信息。此外,本文还设计了一个由交互式解码器和辅助解码器组成的双解码器模块,旨在提高解码器对红外小目标的重构能力。该双解码器模块能够充分利用不同特征之间的互补信息,促进深层特征和浅层特征之间的交互,并通过将两个解码器的结果进行叠加,以更好地重构红外小目标。在广泛使用的公共数据集上的实验结果表明,本文提出的方法在F1和mIoU两个评价指标上的性能优于其他对比方法。
-
关键词:
- 红外小目标检测 /
- 视觉Transformer /
- 多尺度特征融合 /
- 编解码结构
Abstract:The existing infrared small-target detection method based on convolutional neural networks (CNN) exhibits the problem of a limited receptive field in the encoder stage, and the decoder lacks an effective feature interaction when fusing multiscale features. To address the aforementioned issues, in this study, a new method is proposed based on an encoder–decoder structure. Specifically, a vision transformer is used as an encoder to extract multiscale features from small infrared target images. The vision transformer is an emerging deep-learning architecture that uses a self-attention mechanism to capture the global relationship between all pixels in the input image, thereby effectively processing long-range dependencies and contextual information in the image. Furthermore, a dual-decoder module, comprising an interactive decoder and auxiliary decoder, is proposed to improve the ability of the decoder to reconstruct small infrared targets. The dual-decoder module can make full use of the complementary information between different features, promote interaction between deep and shallow features, and better reconstruct small infrared targets by combining the results of the two decoders. Experimental results on widely used public datasets show that the proposed method outperforms other methods in terms of two evaluation indicators: F1 and mIoU.
-
0. 引言
随着控制和通信技术的快速发展与应用,传统的工业逐渐实现自动化、智能化[1]。尤其是钢铁冶金方面,智能自动化的实现解决了很多传统操作存在的安全隐患问题,如基于红外测温仪的钢水测温系统[2-3]。红外测温系统的应用逐渐替代了传统的人工测温,不仅提高了钢水的测温精度,还减少了人工测温的安全事故。
目前,红外测温技术在冶金行业得到广泛应用,尤其是钢水测温方面。其中钢水辐射的红外波长位于0.75~1000 μm,红外测温技术基于钢水辐射的波长能量,得到其表面对面的温度[4]。以上红外测温技术是基于红外辐射理论,即,自然界任何物体(温度在绝对零度以上)时时刻刻都在以电磁波方式向外辐射不同波长的能量。基于这个原理,红外测温技术可以根据辐射体的辐射波长能量,得到其表面对面的温度量[5]。基于钢水的红外热图像,可以得到实时的钢水温度[6]。红外测温原理主要依据于普朗克黑体定律、斯特藩-玻尔兹曼定律和维恩位移定律[7]。根据钢水辐射能量的红外分布图,可以得到对应的辐射体/钢水的温度。即钢水测量温度的准确性取决于由红外热像仪获得的图像的质量[8-9]。
由于实际炼钢环境和测温仪器等不确定性因素的影响,获得的钢水红外热图像存在大量噪声,直接影响最后的钢水测温精度[10]。目前,传统的红外图像去噪处理方法有维纳滤波去噪[11]和稀疏分解去噪[12]等方法。但这些方法都是假设钢水红外图像中的噪声都是独立普通的高斯白噪声,因此对于钢水红外图像中的混合噪声处理效果不太理想。
为了提高钢水红外图像的去噪效果,本文提出基于自适应维纳滤波的去噪方法。与基于稀疏分解去噪方法相比,本文所提方法在去除噪声后提高了钢水红外图像的细节信息保真度,即去噪后的图像更加真实。此外,在传统维纳滤波去噪方法基础上,本文提出的去噪方法通过建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,并有效提高了传统维纳滤波器的去降噪性能。具体验证过程如下:首先,通过钢水测温平台获得不同温度下的钢水红外热图像。然后,利用所提方法对钢水红外热图像进行去噪处理,并与目前存在的维纳滤波去噪和稀疏分解去噪方法进行对比。实验对比结果验证了本文所提去噪方法可以去除红外热图像的噪声,并提高了去噪后钢水红外图像的峰值信噪比。
1. 稀疏分解的去噪方法
与传统图像去噪方法不同,稀疏分解图像去噪方法从图像自身的统计特性出发,将图像分解成稀疏成分和其他成分,如下式:
$$ x(m,n) = {x_1}(m,n) + {x_2}(m,n) $$ (1) 式中:$ {x}_{1}(m,n){=}{\displaystyle \sum _{k=0}^{n-1}\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;$ {x}_{2}(m,n){=}{\displaystyle \sum _{k=\rm{n}}^{\infty }\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;x(m, n)为原始图像;x1(m, n)为图像的稀疏成分(有用信息);x2(m, n)为图像的其他成分(噪声);gγk为由参数组γ定义的原子,〈Rkx(m, n), gγk〉为图像x(m, n)的残余Rkx(m, n)在对应原子gγk上的分量,然后以图像的稀疏成分为基础重建图像,得到去除噪声后的图像。
2. 传统维纳滤波器设计
假设图像信号s(m, n)含有噪声信号w(m, n),含有噪声的图像估计信号为:
$$ x(m,n) = s(m,n) + w(m,n) $$ (2) 线性估计器为:
$$\hat s\left( {m,n} \right) = x\left( {m,n} \right)*h\left( {m,n} \right)$$ (3) 式中:h(m, n)最小均方误差。此外依据正交性原理,最优解h维纳滤波器满足:
$$ {R_{{\rm{ss}}}}(m,n) = {\left[ {{R_{{\rm{ss}}}}(m,n) + {R_{{\rm{ww}}}}(m,n)} \right]^*}h(m,n) $$ (4) 滤波器h的傅里叶变换为:
$$H({w_1},{w_2}) = \frac{{{P_{{\rm{ss}}}}({w_1},{w_2})}}{{{P_{{\rm{ss}}}}({w_1},{w_2}) + {P_{{\rm{ww}}}}({w_1},{w_2})}}$$ (5) 式中:Rss(m, n)和Rww(m, n)是图像信号s和噪声w的自相关函数;Pss(w1, w2)=σs2是图像信号样本s(m, n)的功率谱;Pww(w1, w2)=σn2是噪声w(m, n)的功率谱,其中σs2和σn2分别表示s(m, n)和w(m, n)的方差。
因此,我们可以得到维纳滤波器为:
$$h(m,n) = \frac{{\sigma _{\rm{s}}^{\rm{2}}}}{{\sigma _{\rm{s}}^{\rm{2}} + \sigma _{\rm{n}}^{\rm{2}}}}\delta (m,n)$$ (6) 综上,可以发现最小均方平方误差(Minimum mean square error,MMSE)估计的解是简单的,但是其对信号和噪声的不相关假设并不完全准确。同样考虑小波变换的情况下,非正交结构会在变换域中导致有色噪声,从而使MMSE的解无效。
3. 自适应维纳滤波器设计
为了限制计算复杂度并避免滤波器阶数增长带来的灵敏度问题和变换域导致的噪声问题,我们提出了一种自适应维纳滤波器,该滤波器使用指数衰减自相关模型进行设计。
类似于式(2),FIR(Finite Impulse Response)维纳滤波器的卷积表达式为:
$$\hat s(m,n) = \sum\limits_{(i,j) \in {W_{m,n}}} {h(i,j)x(m - i,n - j)} $$ (7) $$ {W_{m,n}} = \{ (i,j);m - M \leqslant i \leqslant m + M,n - M \leqslant j \leqslant n + M\} $$ (8) 式中:Wm, n表示中心在(m, n)的(2M+1)(2M+1)的方形窗口函数;M是自适应滤波器的阶数。等式(7)右侧形成一个有限的块-Toeplitz矩阵[13]:
$$({\mathit{\boldsymbol{R}}_s} + {\mathit{\boldsymbol{R}}_w})\Re = \zeta $$ (9) 式中:Rs和Rw是(2M+1)(2M+1)的Toeplitz矩阵,对应于两组自相关函数;$\mathfrak{R}$和ζ是关于滤波器系数和信号s自相关函数的(2M+1)2×1向量。从方程(5)我们知道滤波器依赖于信号和噪声的相关性。一旦确定了相关系数,滤波器设计问题就简化为求解线性系统。
实验结果表明,自然图像的小波系数具有一定的聚类特性。换言之,小波系数的大小与其邻域无关。这种依赖性随着距离的增加而迅速衰减。使用简化符号rm, n: =Rss(m, n),我们提出一个指数衰减模型:
$${r_{m,n}} = {r_{0,0}}{\gamma ^{\left| m \right| + \left| n \right|}},(m,n) \in {W_{0,0}}$$ (10) 式中:γ是衰变参数,其随小波系数的尺度变化而变化。指数衰减模型代表了真实图像在其邻居上的系数。此外,频带内自相关函数的变化通过变化的局部方差建模:
$${s_{m,n}}: = {R_{{\rm{ww}}}}(m,n) = \left\{ \begin{gathered} \sigma _n^2,\quad \quad m = 0,n = 0 \\ {\delta _1}\sigma _n^2,\quad {\kern 1pt} \left| m \right| + \left| n \right| = 1 \\ {\delta _2}\sigma _n^2,\quad \left| m \right| = \left| n \right| = 1 \\ 0,\quad \quad \;\,{\rm{else}} \\ \end{gathered} \right.$$ (11) 式中:δ是表示是特定表示尺度上小波域系数归一化的界。由于δ是随尺度变化,因此噪声的相关模型也是变化的。
为了估计在相关模型中的参数,我们为每个频带中的所有系数选择一个通用的衰减参数γ,但是信号方差σs2=r0, 0是根据上下文从每个单独的系数估计的。综上,估计信号方差$\hat \sigma _s^2(m,n)$表达式为:
$${\hat m_s}(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {x(k,l)} $$ (12) $$\hat \sigma _x^2(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {(x(k,l) - } {\hat m_s}(m,n){)^2}$$ (13) $$\hat \sigma _s^2(m,n) = \max (0,\hat \sigma _x^2(m,n) - \sigma _n^2)$$ (14) 基于小波域中的系数聚类,通过式(12)~(13)建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,因此可以有效提高维纳滤波器的去降噪性能。
4. 实验及数据分析
4.1 实验方案和去噪评价标准
如图 1所示,实验平台采用的设备如下:中频率和对应电源变频柜的输出参数为额定功率1000 kV,额定频率700 Hz,输入电压750 V/50 Hz;红外热像仪型号为FLIR A65,灵敏度小于等于0.08℃。透镜型号为OLA30.4-350。本实验中采用融化较小的钢坯,通过红外热像仪采集融化后的钢水红外热图像,其中对应现场参数修正信息如表 1所示。
表 1 用于温度修正的现场参数信息Table 1. Information for temperature correctionTemperature/℃ 25.0 Target distance/m 2.2 Atmospheric transmittance/% 100 Window transmittance/% 100 Global emissivity/% 62 为了验证所提方法对钢水图像去噪的效果,本文用均方差(mean squared error,MSE)和峰值信噪比(peak-signal-to-noise ratio,PSNR)作为评价参数[14]。设U1(m, n)表示原始红外图像,U2(m, n)表示去噪后的红外图像,其中m和n代表行和列,则对应的均方差和峰值信噪比计算公式如下::
$$ {\rm{MSE}}={{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{\frac{1}{2}}$$ (15) $$ {\rm{PSNR}}=10\mathrm{lg}\left\{\frac{K\times {\rm{MAX}}^{2}}{{{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{2}}\right\}$$ (16) 由上可知,去噪后图像对应的PSNR数值越高、MSE数值越小暗示去噪方法对钢水红外图像中的噪声处理的效果越好。
4.2 数据分析
本实验用红外热像仪分别采集温度为1600℃和1696℃下的钢水红外热图像,用本文提出的自适应维纳滤波方法进行去噪处理。对去噪后的图像分别与基于维纳滤波和基于稀疏分解去噪结果进行对比,通过对比各方法的MSE和PSNR评价参数验证本文去噪方法的优越性。
如图 2所示,对采集的1600℃时钢水红外图像进行去噪处理。Fig.2(b)~Fig.2(c)是采用维纳滤波和稀疏分解方法进行去噪处理后的钢水红外图像,Fig.2(d)为本文去噪方法处理后所得钢水红外图像。同样,对在1696℃时钢水红外图像进行去噪处理。基于以上3种去噪方法,所得去噪后的钢水红外图像如图Fig.3(b)~Fig.3(d)所示。
基于图 2和图 3的去噪后钢水红外图像,我们用MSE和PSNR来评价去噪效果,如表 2所示。我们可以发现基于自适应维纳滤波去噪后图像的MSE和PSNR优于基于维纳滤波和稀疏分解去噪方法。
表 2 不同温度下钢水红外图像去噪效果对比Table 2. Comparison of denoising effect of molten steel infrared image under different temperaturesNoise processing method MSE PSNR/dB 1600℃ 1696℃ 1600℃ 1696℃ Wiener filter
Sparse decomposition
FIR wiener filter0.1130
0.0906
0.07980.1261
0.1001
0.080510.235
18.539
25.68310.095
19.168
26.956基于文献[10]中钢水温度与红外热图像灰度值之间的对应函数关系,我们取热电偶实时测量钢水温度1600℃时的去噪图像分析不同去噪方法对钢水测量精度的影响。表 3的对比数据验证了本文提出的去噪方法可以提高去噪后的钢水红外热图像对应的钢水温度准确性。
5. 结论
本文针对钢水红外图像存的噪声处理问题,提出了基于自适应维纳滤波的去噪处理方法。通过实验验证,所提的去噪方法可以有效地去除噪声。此外,与基于维纳滤波和稀疏分解去噪方法的对比,所提去噪方法可以更好去除钢水红外图像的噪声,提高图像质量保真度。下一步我们将继续优化所提去噪方法的计算复杂度,以便快速地应用于实际钢水红外测温系统中。
-
图 1 部分红外小目标图像样本。(a) 建筑物背景下的红外小目标,(b) 海洋背景下的红外小目标,(c) 陆地背景下的红外小目标,(d) 空中(云层)背景下的红外小目标
Figure 1. Some samples of infrared small target images. (a) depicts infrared small target in building background, (b) depicts infrared small target in sea background, (c) depicts infrared small target in land background, and (d) depicts infrared small target in sky background
表 1 不同算法在ISTS-DATA数据集上的实验结果
Table 1 Experimental results of different algorithms on the ISTS-DATA dataset
Methods Precision Recall F1 mIoU Top-Hat 0.5106 0.2202 0.3077 0.1536 LEF 0.5071 0.2745 0.3562 0.1675 IPI 0.7537 0.3452 0.4735 0.2036 MDvsFA-cGAN 0.6335 0.6562 0.6447 0.4686 ALCNet 0.6658 0.6641 0.6649 0.4995 LSPM 0.6559 0.6762 0.6659 0.5078 DNANet 0.6233 0.6876 0.6539 0.4857 UIU-Net 0.5969 0.6972 0.6432 0.4740 Ours 0.6858 0.7216 0.7032 0.5384 表 2 不同算法在NUAA-SIRST和IRSTD-1k数据集上的实验结果
Table 2 Experimental results of different algorithms on NUAA-SIRST and IRSTD-1k datasets
Methods NUAA-SIRST IRSTD-1k F1 mIoU F1 mIoU LSPM 0.7313 0.5764 0.5516 0.3809 DNANet 0.7065 0.5462 0.5207 0.3502 UIU-Net 0.6645 0.4976 0.4998 0.3331 Ours 0.7609 0.6202 0.6238 0.4517 表 3 数据集的分析与比较
Table 3 Analysis and comparison of Datasets
Dataset Quantity/pieces Background type Small target types Single object count/Multiple object count ISTS-DATA 100 Land, Clouds, Buildings, Ocean, et al. Land, Aerial, and Marine Targets 75/25 NUAA-SIRST 427 Clouds, Buildings, et al. Primarily Aerial Targets 365/62 IRSTD-1k 1000 Clouds, Trees, et al. Mainly aerial and land targets. 655/345 表 4 深度学习方法参数量和浮点运算量比较
Table 4 Comparison of FLOPs and Params of deep learning methods
Methods FLOPs Params MDvsFA-cGAN 988.44G 15.23M ALCNet 14.52G 8.56M LSPM 233.31G 31.14M DNANet 53.99G 4.70M UIU-Net 206.08G 50.54M Ours 8.84G 7.18M 表 5 不同损失函数下的F1
Table 5 The value of F1 under different loss functions
Loss Function F1 BCE loss 0.6675 Focal loss 0.6758 Improved focal loss (Ours) 0.7032 表 6 不同编码器的性能比较
Table 6 Comparison of different encoders
Encoder F1 PVT (ours) 0.7032 VGG16 0.6714 ResNet50 0.6774 表 7 不同编码器的性能比较
Table 7 Comparison of different decoders
Methods F1 PVT + ITD + AD (ours) 0.7032 PVT + FPN + AD 0.6706 PVT + AD 0.6565 PVT + ITD 0.6831 PVT + FPN 0.6652 -
[1] 刘洋, 战荫伟. 基于深度学习的小目标检测算法综述[J]. 计算机工程与应用, 2021(2): 37-48. LIU Yang, ZHAN Yinwei. Survey of small object detection algorithms based on deep learning[J]. Computer Engineering and Applications, 2021(2): 37-48.
[2] HUANG Y, LI X, LU R, et al. Infrared maritime target tracking via correlation filter with adaptive context-awareness and spatial regularization[J]. Infrared Physics & Technology, 2021, 118: 103907.
[3] 韩金辉, 魏艳涛, 彭真明, 等. 红外弱小目标检测方法综述[J]. 红外与激光工程, 2022, 51(4): 20210393. doi: 10.3788/IRLA20210393. HAN Jinhui, WEI Yantao, PENG Zhenming, et al. Infrared dim and small target detection: a review[J]. Infrared and Laser Engineering, 2022, 51(4): 20210393. doi: 10.3788/IRLA20210393.
[4] SUN Y, YANG J, AN W. Infrared dim and small target detection via multiple subspace learning and spatial-temporal patch-tensor model[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(5): 3737-3752. DOI: 10.1109/TGRS.2020.3022069
[5] ZHANG W, CONG M, WANG L. Algorithms for optical weak small targets detection and tracking: review[C]//IEEE Proceedings of the 2003 International Conference on Neural Networks and Signal Processing, 2003(1): 643-647.
[6] ZENG M, LI J, PENG Z. The design of top-hat morphological filter and application to infrared target detection[J]. Infrared Physics & Technology, 2006: 48(1): 67-76.
[7] Deshpande S D, ER M H, Venkateswarlu R, et al. Max-mean and max-median filters for detection of small targets[C]//Proceedings of the SPIE, 1999, 3809: 74-83.
[8] WEI Y, YOU X, LI H. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recognition, 2016, 58: 216-226. DOI: 10.1016/j.patcog.2016.04.002
[9] Aghaziyarati S, Moradi S, Talebi H. Small infrared target detection using absolute average difference weighted by cumulative directional derivatives[J]. Infrared Physics & Technology, 2019, 101: 78-87.
[10] GAO C, WANG L, XIAO Y, et al. Infrared small-dim target detection based on Markov random field guided noise modeling[J]. Pattern Recognition, 2018, 76: 463-475. DOI: 10.1016/j.patcog.2017.11.016
[11] WANG X, PENG Z, KONG D, et al. Infrared dim target detection based on total variation regularization and principal component pursuit[J]. Image and Vision Computing, 2017, 63: 1-9. DOI: 10.1016/j.imavis.2017.04.002
[12] WANG H, ZHOU L, WANG L. Miss detection vs. false alarm: adversarial learning for small object segmentation in Infrared images[C]//IEEE/CVF International Conference on Computer Vision (ICCV), 2019: 8508-8517.
[13] LI B, XIAO C, WANG L, et al. Dense nested attention network for infrared small target detection[J]. IEEE Transactions on Image Processing, 2023, 32: 1745-1758. DOI: 10.1109/TIP.2022.3199107
[14] WU X, HONG D, CHANUSSOT J. UIU-Net: U-Net in U-Net for infrared small object detection[J]. IEEE Transactions on Image Processing, 2023, 32: 364-376. DOI: 10.1109/TIP.2022.3228497
[15] DAI Y, WU Y, ZHOU F, et al. Asymmetric contextual modulation for infrared small target detection[C]// IEEE Winter Conference on Applications of Computer Vision (WACV), 2021: 949-958.
[16] DAI Y, WU Y, ZHOU F, et al. Attentional local contrast networks for infrared small target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(11): 9813-9824. DOI: 10.1109/TGRS.2020.3044958
[17] LI G, YU Y. Deep contrast learning for salient object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 478-487.
[18] ZHANG P, WANG D, LU H, et al. Amulet: Aggregating multi-level convolutional features for salient object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 202-211.
[19] HUANG L, DAI S, HUANG T, et al. Infrared small target segmentation with multiscale feature representation[J]. Infrared Physics & Technology, 2021, 116: 103755.
[20] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention–MICCAI, 2015: 234-241.
[21] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. arXiv: 1706.03762, 2017.
[22] CHEN J, LU Y, YU Q, et al. Transunet: Transformers make strong encoders for medical image segmentation[J]. arXiv preprint arXiv: 2102.04306, 2021.
[23] LIU F, GAO C, CHEN F, et al. Infrared small-dim target detection with transformer under complex backgrounds[J]. arXiv preprint arXiv: 2109.14379, 2021.
[24] WU T, LI B, LUO Y, et al. MTU-Net: Multi-level TransUNet for space-based infrared tiny ship detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 3235002.
[25] WANG W, XIE E, LI X, et al. Pyramid vision transformer: A versatile backbone for dense prediction without convolutions[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021: 568-578.
[26] LIN T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 2980-2988.
[27] ZHANG M, ZHANG R, YANG Y, et al. ISNET: Shape matters for infrared small target detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 877-886.
[28] XIA C, LI X, ZHAO L, et al. Infrared small target detection based on multiscale local contrast measure using local energy factor[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(1): 157-161. DOI: 10.1109/LGRS.2019.2914432
[29] GAO C, MENG D, YANG Y, et al. Infrared patch-image model for small target detection in a single image[J]. IEEE Transactions on Image Processing, 2013, 22(12): 4996-5009. DOI: 10.1109/TIP.2013.2281420
-
期刊类型引用(4)
1. 陈秋艳,张新燕,贺敏,田义春,刘宁,郭瑞,王晓辉,游思源,张修坤. 基于深度学习的管道热图像泄漏识别. 红外技术. 2024(05): 522-531 . 本站查看
2. 袁敏. 基于机器视觉的智能建造H型钢焊接焊缝轨迹跟踪方法. 西昌学院学报(自然科学版). 2024(03): 46-51+99 . 百度学术
3. 吴丽华,聂丰英. 基于复小波与最大后验估计的红外图像滤波. 光学技术. 2023(01): 113-119 . 百度学术
4. 欧卫红,万里勇. 双密度复小波与系数相关性的红外图像去噪. 光学技术. 2023(02): 238-244 . 百度学术
其他类型引用(6)