基于视觉Transformer和双解码器的红外小目标检测方法

代少升, 刘科生, 黄炼, 贺自强, 毛兴华, 任汶皓

代少升, 刘科生, 黄炼, 贺自强, 毛兴华, 任汶皓. 基于视觉Transformer和双解码器的红外小目标检测方法[J]. 红外技术, 2024, 46(9): 1070-1080.
引用本文: 代少升, 刘科生, 黄炼, 贺自强, 毛兴华, 任汶皓. 基于视觉Transformer和双解码器的红外小目标检测方法[J]. 红外技术, 2024, 46(9): 1070-1080.
DAI Shaosheng, LIU Kesheng, HUANG Lian, HE Ziqiang, MAO Xinghua, REN Wenhao. Infrared Small Target Detection Method with Vision Transformer and Dual Decoder[J]. Infrared Technology , 2024, 46(9): 1070-1080.
Citation: DAI Shaosheng, LIU Kesheng, HUANG Lian, HE Ziqiang, MAO Xinghua, REN Wenhao. Infrared Small Target Detection Method with Vision Transformer and Dual Decoder[J]. Infrared Technology , 2024, 46(9): 1070-1080.

基于视觉Transformer和双解码器的红外小目标检测方法

详细信息
    作者简介:

    代少升(1974-),男,博士,教授,主要从事红外成像系统及SOPC嵌入式系统的设计与开发

    通讯作者:

    黄炼(1992-),男,博士,讲师,主要从事红外小目标、小样本学习等研究。E-mail: hlcysxxy@163.com

  • 中图分类号: TP391.4

Infrared Small Target Detection Method with Vision Transformer and Dual Decoder

  • 摘要:

    当前基于卷积神经网络的红外小目标检测方法在编码器阶段受限于感受野,且解码器在多尺度特征融合中缺乏有效的特征交互。本文提出了一种基于编码器-解码器结构的新方法,针对现有红外小目标检测方法中的问题进行改进。该方法使用视觉Transformer作为编码器,能够有效地提取红外小目标图像的多尺度特征。视觉Transformer是一种新兴的深度学习架构,其通过自注意力机制捕捉图像中像素之间的全局关系,以处理长程依赖性和上下文信息。此外,本文还设计了一个由交互式解码器和辅助解码器组成的双解码器模块,旨在提高解码器对红外小目标的重构能力。该双解码器模块能够充分利用不同特征之间的互补信息,促进深层特征和浅层特征之间的交互,并通过将两个解码器的结果进行叠加,以更好地重构红外小目标。在广泛使用的公共数据集上的实验结果表明,本文提出的方法在F1和mIoU两个评价指标上的性能优于其他对比方法。

    Abstract:

    The existing infrared small-target detection method based on convolutional neural networks (CNN) exhibits the problem of a limited receptive field in the encoder stage, and the decoder lacks an effective feature interaction when fusing multiscale features. To address the aforementioned issues, in this study, a new method is proposed based on an encoder–decoder structure. Specifically, a vision transformer is used as an encoder to extract multiscale features from small infrared target images. The vision transformer is an emerging deep-learning architecture that uses a self-attention mechanism to capture the global relationship between all pixels in the input image, thereby effectively processing long-range dependencies and contextual information in the image. Furthermore, a dual-decoder module, comprising an interactive decoder and auxiliary decoder, is proposed to improve the ability of the decoder to reconstruct small infrared targets. The dual-decoder module can make full use of the complementary information between different features, promote interaction between deep and shallow features, and better reconstruct small infrared targets by combining the results of the two decoders. Experimental results on widely used public datasets show that the proposed method outperforms other methods in terms of two evaluation indicators: F1 and mIoU.

  • 随着控制和通信技术的快速发展与应用,传统的工业逐渐实现自动化、智能化[1]。尤其是钢铁冶金方面,智能自动化的实现解决了很多传统操作存在的安全隐患问题,如基于红外测温仪的钢水测温系统[2-3]。红外测温系统的应用逐渐替代了传统的人工测温,不仅提高了钢水的测温精度,还减少了人工测温的安全事故。

    目前,红外测温技术在冶金行业得到广泛应用,尤其是钢水测温方面。其中钢水辐射的红外波长位于0.75~1000 μm,红外测温技术基于钢水辐射的波长能量,得到其表面对面的温度[4]。以上红外测温技术是基于红外辐射理论,即,自然界任何物体(温度在绝对零度以上)时时刻刻都在以电磁波方式向外辐射不同波长的能量。基于这个原理,红外测温技术可以根据辐射体的辐射波长能量,得到其表面对面的温度量[5]。基于钢水的红外热图像,可以得到实时的钢水温度[6]。红外测温原理主要依据于普朗克黑体定律、斯特藩-玻尔兹曼定律和维恩位移定律[7]。根据钢水辐射能量的红外分布图,可以得到对应的辐射体/钢水的温度。即钢水测量温度的准确性取决于由红外热像仪获得的图像的质量[8-9]

    由于实际炼钢环境和测温仪器等不确定性因素的影响,获得的钢水红外热图像存在大量噪声,直接影响最后的钢水测温精度[10]。目前,传统的红外图像去噪处理方法有维纳滤波去噪[11]和稀疏分解去噪[12]等方法。但这些方法都是假设钢水红外图像中的噪声都是独立普通的高斯白噪声,因此对于钢水红外图像中的混合噪声处理效果不太理想。

    为了提高钢水红外图像的去噪效果,本文提出基于自适应维纳滤波的去噪方法。与基于稀疏分解去噪方法相比,本文所提方法在去除噪声后提高了钢水红外图像的细节信息保真度,即去噪后的图像更加真实。此外,在传统维纳滤波去噪方法基础上,本文提出的去噪方法通过建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,并有效提高了传统维纳滤波器的去降噪性能。具体验证过程如下:首先,通过钢水测温平台获得不同温度下的钢水红外热图像。然后,利用所提方法对钢水红外热图像进行去噪处理,并与目前存在的维纳滤波去噪和稀疏分解去噪方法进行对比。实验对比结果验证了本文所提去噪方法可以去除红外热图像的噪声,并提高了去噪后钢水红外图像的峰值信噪比。

    与传统图像去噪方法不同,稀疏分解图像去噪方法从图像自身的统计特性出发,将图像分解成稀疏成分和其他成分,如下式:

    $$ x(m,n) = {x_1}(m,n) + {x_2}(m,n) $$ (1)

    式中:$ {x}_{1}(m,n){=}{\displaystyle \sum _{k=0}^{n-1}\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;$ {x}_{2}(m,n){=}{\displaystyle \sum _{k=\rm{n}}^{\infty }\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;x(m, n)为原始图像;x1(m, n)为图像的稀疏成分(有用信息);x2(m, n)为图像的其他成分(噪声);gγk为由参数组γ定义的原子,〈Rkx(m, n), gγk〉为图像x(m, n)的残余Rkx(m, n)在对应原子gγk上的分量,然后以图像的稀疏成分为基础重建图像,得到去除噪声后的图像。

    假设图像信号s(m, n)含有噪声信号w(m, n),含有噪声的图像估计信号为:

    $$ x(m,n) = s(m,n) + w(m,n) $$ (2)

    线性估计器为:

    $$\hat s\left( {m,n} \right) = x\left( {m,n} \right)*h\left( {m,n} \right)$$ (3)

    式中:h(m, n)最小均方误差。此外依据正交性原理,最优解h维纳滤波器满足:

    $$ {R_{{\rm{ss}}}}(m,n) = {\left[ {{R_{{\rm{ss}}}}(m,n) + {R_{{\rm{ww}}}}(m,n)} \right]^*}h(m,n) $$ (4)

    滤波器h的傅里叶变换为:

    $$H({w_1},{w_2}) = \frac{{{P_{{\rm{ss}}}}({w_1},{w_2})}}{{{P_{{\rm{ss}}}}({w_1},{w_2}) + {P_{{\rm{ww}}}}({w_1},{w_2})}}$$ (5)

    式中:Rss(m, n)和Rww(m, n)是图像信号s和噪声w的自相关函数;Pss(w1, w2)=σs2是图像信号样本s(m, n)的功率谱;Pww(w1, w2)=σn2是噪声w(m, n)的功率谱,其中σs2σn2分别表示s(m, n)和w(m, n)的方差。

    因此,我们可以得到维纳滤波器为:

    $$h(m,n) = \frac{{\sigma _{\rm{s}}^{\rm{2}}}}{{\sigma _{\rm{s}}^{\rm{2}} + \sigma _{\rm{n}}^{\rm{2}}}}\delta (m,n)$$ (6)

    综上,可以发现最小均方平方误差(Minimum mean square error,MMSE)估计的解是简单的,但是其对信号和噪声的不相关假设并不完全准确。同样考虑小波变换的情况下,非正交结构会在变换域中导致有色噪声,从而使MMSE的解无效。

    为了限制计算复杂度并避免滤波器阶数增长带来的灵敏度问题和变换域导致的噪声问题,我们提出了一种自适应维纳滤波器,该滤波器使用指数衰减自相关模型进行设计。

    类似于式(2),FIR(Finite Impulse Response)维纳滤波器的卷积表达式为:

    $$\hat s(m,n) = \sum\limits_{(i,j) \in {W_{m,n}}} {h(i,j)x(m - i,n - j)} $$ (7)
    $$ {W_{m,n}} = \{ (i,j);m - M \leqslant i \leqslant m + M,n - M \leqslant j \leqslant n + M\} $$ (8)

    式中:Wm, n表示中心在(m, n)的(2M+1)(2M+1)的方形窗口函数;M是自适应滤波器的阶数。等式(7)右侧形成一个有限的块-Toeplitz矩阵[13]

    $$({\mathit{\boldsymbol{R}}_s} + {\mathit{\boldsymbol{R}}_w})\Re = \zeta $$ (9)

    式中:RsRw是(2M+1)(2M+1)的Toeplitz矩阵,对应于两组自相关函数;$\mathfrak{R}$和ζ是关于滤波器系数和信号s自相关函数的(2M+1)2×1向量。从方程(5)我们知道滤波器依赖于信号和噪声的相关性。一旦确定了相关系数,滤波器设计问题就简化为求解线性系统。

    实验结果表明,自然图像的小波系数具有一定的聚类特性。换言之,小波系数的大小与其邻域无关。这种依赖性随着距离的增加而迅速衰减。使用简化符号rm, n: =Rss(m, n),我们提出一个指数衰减模型:

    $${r_{m,n}} = {r_{0,0}}{\gamma ^{\left| m \right| + \left| n \right|}},(m,n) \in {W_{0,0}}$$ (10)

    式中:γ是衰变参数,其随小波系数的尺度变化而变化。指数衰减模型代表了真实图像在其邻居上的系数。此外,频带内自相关函数的变化通过变化的局部方差建模:

    $${s_{m,n}}: = {R_{{\rm{ww}}}}(m,n) = \left\{ \begin{gathered} \sigma _n^2,\quad \quad m = 0,n = 0 \\ {\delta _1}\sigma _n^2,\quad {\kern 1pt} \left| m \right| + \left| n \right| = 1 \\ {\delta _2}\sigma _n^2,\quad \left| m \right| = \left| n \right| = 1 \\ 0,\quad \quad \;\,{\rm{else}} \\ \end{gathered} \right.$$ (11)

    式中:δ是表示是特定表示尺度上小波域系数归一化的界。由于δ是随尺度变化,因此噪声的相关模型也是变化的。

    为了估计在相关模型中的参数,我们为每个频带中的所有系数选择一个通用的衰减参数γ,但是信号方差σs2r0, 0是根据上下文从每个单独的系数估计的。综上,估计信号方差$\hat \sigma _s^2(m,n)$表达式为:

    $${\hat m_s}(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {x(k,l)} $$ (12)
    $$\hat \sigma _x^2(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {(x(k,l) - } {\hat m_s}(m,n){)^2}$$ (13)
    $$\hat \sigma _s^2(m,n) = \max (0,\hat \sigma _x^2(m,n) - \sigma _n^2)$$ (14)

    基于小波域中的系数聚类,通过式(12)~(13)建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,因此可以有效提高维纳滤波器的去降噪性能。

    图 1所示,实验平台采用的设备如下:中频率和对应电源变频柜的输出参数为额定功率1000 kV,额定频率700 Hz,输入电压750 V/50 Hz;红外热像仪型号为FLIR A65,灵敏度小于等于0.08℃。透镜型号为OLA30.4-350。本实验中采用融化较小的钢坯,通过红外热像仪采集融化后的钢水红外热图像,其中对应现场参数修正信息如表 1所示。

    图  1  钢水红外温度检测系统结构图
    Figure  1.  Structural diagram of molten steel temperature detection system
    表  1  用于温度修正的现场参数信息
    Table  1.  Information for temperature correction
    Temperature/℃ 25.0
    Target distance/m 2.2
    Atmospheric transmittance/% 100
    Window transmittance/% 100
    Global emissivity/% 62
    下载: 导出CSV 
    | 显示表格

    为了验证所提方法对钢水图像去噪的效果,本文用均方差(mean squared error,MSE)和峰值信噪比(peak-signal-to-noise ratio,PSNR)作为评价参数[14]。设U1(m, n)表示原始红外图像,U2(m, n)表示去噪后的红外图像,其中mn代表行和列,则对应的均方差和峰值信噪比计算公式如下::

    $$ {\rm{MSE}}={{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{\frac{1}{2}}$$ (15)
    $$ {\rm{PSNR}}=10\mathrm{lg}\left\{\frac{K\times {\rm{MAX}}^{2}}{{{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{2}}\right\}$$ (16)

    由上可知,去噪后图像对应的PSNR数值越高、MSE数值越小暗示去噪方法对钢水红外图像中的噪声处理的效果越好。

    本实验用红外热像仪分别采集温度为1600℃和1696℃下的钢水红外热图像,用本文提出的自适应维纳滤波方法进行去噪处理。对去噪后的图像分别与基于维纳滤波和基于稀疏分解去噪结果进行对比,通过对比各方法的MSE和PSNR评价参数验证本文去噪方法的优越性。

    图 2所示,对采集的1600℃时钢水红外图像进行去噪处理。Fig.2(b)~Fig.2(c)是采用维纳滤波和稀疏分解方法进行去噪处理后的钢水红外图像,Fig.2(d)为本文去噪方法处理后所得钢水红外图像。同样,对在1696℃时钢水红外图像进行去噪处理。基于以上3种去噪方法,所得去噪后的钢水红外图像如图Fig.3(b)~Fig.3(d)所示。

    图  2  1600℃的钢水红外图像去噪对比
    Figure  2.  Denoising comparison of molten steel infrared image at 1600℃
    图  3  1696℃的钢水红外图像去噪对比
    Figure  3.  Denoising comparison of molten steel infrared image at 1696℃

    基于图 2图 3的去噪后钢水红外图像,我们用MSE和PSNR来评价去噪效果,如表 2所示。我们可以发现基于自适应维纳滤波去噪后图像的MSE和PSNR优于基于维纳滤波和稀疏分解去噪方法。

    表  2  不同温度下钢水红外图像去噪效果对比
    Table  2.  Comparison of denoising effect of molten steel infrared image under different temperatures
    Noise processing method MSE PSNR/dB
    1600℃ 1696℃ 1600℃ 1696℃
    Wiener filter
    Sparse decomposition
    FIR wiener filter
    0.1130
    0.0906
    0.0798
    0.1261
    0.1001
    0.0805
    10.235
    18.539
    25.683
    10.095
    19.168
    26.956
    下载: 导出CSV 
    | 显示表格

    基于文献[10]中钢水温度与红外热图像灰度值之间的对应函数关系,我们取热电偶实时测量钢水温度1600℃时的去噪图像分析不同去噪方法对钢水测量精度的影响。表 3的对比数据验证了本文提出的去噪方法可以提高去噪后的钢水红外热图像对应的钢水温度准确性。

    表  3  钢水温度数据对比
    Table  3.  Comparison of the steel temperature data
    Original image Fig.2(a) 1525
    Denoised image using wiener filter Fig.2(b) 1556
    Denoising image using sparse decomposition Fig.2(c) 1576
    Denoising image using adaptive wiener filter Fig.2(d) 1591
    下载: 导出CSV 
    | 显示表格

    本文针对钢水红外图像存的噪声处理问题,提出了基于自适应维纳滤波的去噪处理方法。通过实验验证,所提的去噪方法可以有效地去除噪声。此外,与基于维纳滤波和稀疏分解去噪方法的对比,所提去噪方法可以更好去除钢水红外图像的噪声,提高图像质量保真度。下一步我们将继续优化所提去噪方法的计算复杂度,以便快速地应用于实际钢水红外测温系统中。

  • 图  1   部分红外小目标图像样本。(a) 建筑物背景下的红外小目标,(b) 海洋背景下的红外小目标,(c) 陆地背景下的红外小目标,(d) 空中(云层)背景下的红外小目标

    Figure  1.   Some samples of infrared small target images. (a) depicts infrared small target in building background, (b) depicts infrared small target in sea background, (c) depicts infrared small target in land background, and (d) depicts infrared small target in sky background

    图  2   两种典型方法的网络结构。(a)基于GAN的方法,(b)基于编码器-解码器结构的方法

    Figure  2.   The network architecture of two typical methods. (a) the GAN-Based method and (b) the Encoder-Decoder-Based method

    图  3   本文的方法。图(a)本文方法的总体结构,图(b)辅助解码器的实现过程。图(c)交互式解码器的实现过程

    Figure  3.   The pipeline of our proposed method. The overall architecture in (a), the auxiliary decoder (AD) implementation process in (b), and the interactive decoder (ITD) implementation process in (c)

    图  4   不同方法的可视化结果。红色、黄色和蓝色的框分别代表正确检测到的目标、未检测到的目标和错误检测到的目标

    Figure  4.   Visualization results of different methods. Boxes in red, yellow, and blue represent correctly detected targets, miss detected targets, and falsely detected targets, respectively

    图  5   测试数据集中红外小目标图像对比

    Figure  5.   Comparison of infrared small target images in the test datasets

    表  1   不同算法在ISTS-DATA数据集上的实验结果

    Table  1   Experimental results of different algorithms on the ISTS-DATA dataset

    Methods Precision Recall F1 mIoU
    Top-Hat 0.5106 0.2202 0.3077 0.1536
    LEF 0.5071 0.2745 0.3562 0.1675
    IPI 0.7537 0.3452 0.4735 0.2036
    MDvsFA-cGAN 0.6335 0.6562 0.6447 0.4686
    ALCNet 0.6658 0.6641 0.6649 0.4995
    LSPM 0.6559 0.6762 0.6659 0.5078
    DNANet 0.6233 0.6876 0.6539 0.4857
    UIU-Net 0.5969 0.6972 0.6432 0.4740
    Ours 0.6858 0.7216 0.7032 0.5384
    下载: 导出CSV

    表  2   不同算法在NUAA-SIRST和IRSTD-1k数据集上的实验结果

    Table  2   Experimental results of different algorithms on NUAA-SIRST and IRSTD-1k datasets

    Methods NUAA-SIRST IRSTD-1k
    F1 mIoU F1 mIoU
    LSPM 0.7313 0.5764 0.5516 0.3809
    DNANet 0.7065 0.5462 0.5207 0.3502
    UIU-Net 0.6645 0.4976 0.4998 0.3331
    Ours 0.7609 0.6202 0.6238 0.4517
    下载: 导出CSV

    表  3   数据集的分析与比较

    Table  3   Analysis and comparison of Datasets

    Dataset Quantity/pieces Background type Small target types Single object count/Multiple object count
    ISTS-DATA 100 Land, Clouds, Buildings, Ocean, et al. Land, Aerial, and Marine Targets 75/25
    NUAA-SIRST 427 Clouds, Buildings, et al. Primarily Aerial Targets 365/62
    IRSTD-1k 1000 Clouds, Trees, et al. Mainly aerial and land targets. 655/345
    下载: 导出CSV

    表  4   深度学习方法参数量和浮点运算量比较

    Table  4   Comparison of FLOPs and Params of deep learning methods

    Methods FLOPs Params
    MDvsFA-cGAN 988.44G 15.23M
    ALCNet 14.52G 8.56M
    LSPM 233.31G 31.14M
    DNANet 53.99G 4.70M
    UIU-Net 206.08G 50.54M
    Ours 8.84G 7.18M
    下载: 导出CSV

    表  5   不同损失函数下的F1

    Table  5   The value of F1 under different loss functions

    Loss Function F1
    BCE loss 0.6675
    Focal loss 0.6758
    Improved focal loss (Ours) 0.7032
    下载: 导出CSV

    表  6   不同编码器的性能比较

    Table  6   Comparison of different encoders

    Encoder F1
    PVT (ours) 0.7032
    VGG16 0.6714
    ResNet50 0.6774
    下载: 导出CSV

    表  7   不同编码器的性能比较

    Table  7   Comparison of different decoders

    Methods F1
    PVT + ITD + AD (ours) 0.7032
    PVT + FPN + AD 0.6706
    PVT + AD 0.6565
    PVT + ITD 0.6831
    PVT + FPN 0.6652
    下载: 导出CSV
  • [1] 刘洋, 战荫伟. 基于深度学习的小目标检测算法综述[J]. 计算机工程与应用, 2021(2): 37-48.

    LIU Yang, ZHAN Yinwei. Survey of small object detection algorithms based on deep learning[J]. Computer Engineering and Applications, 2021(2): 37-48.

    [2]

    HUANG Y, LI X, LU R, et al. Infrared maritime target tracking via correlation filter with adaptive context-awareness and spatial regularization[J]. Infrared Physics & Technology, 2021, 118: 103907.

    [3] 韩金辉, 魏艳涛, 彭真明, 等. 红外弱小目标检测方法综述[J]. 红外与激光工程, 2022, 51(4): 20210393. doi: 10.3788/IRLA20210393.

    HAN Jinhui, WEI Yantao, PENG Zhenming, et al. Infrared dim and small target detection: a review[J]. Infrared and Laser Engineering, 2022, 51(4): 20210393. doi: 10.3788/IRLA20210393.

    [4]

    SUN Y, YANG J, AN W. Infrared dim and small target detection via multiple subspace learning and spatial-temporal patch-tensor model[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(5): 3737-3752. DOI: 10.1109/TGRS.2020.3022069

    [5]

    ZHANG W, CONG M, WANG L. Algorithms for optical weak small targets detection and tracking: review[C]//IEEE Proceedings of the 2003 International Conference on Neural Networks and Signal Processing, 2003(1): 643-647.

    [6]

    ZENG M, LI J, PENG Z. The design of top-hat morphological filter and application to infrared target detection[J]. Infrared Physics & Technology, 2006: 48(1): 67-76.

    [7]

    Deshpande S D, ER M H, Venkateswarlu R, et al. Max-mean and max-median filters for detection of small targets[C]//Proceedings of the SPIE, 1999, 3809: 74-83.

    [8]

    WEI Y, YOU X, LI H. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recognition, 2016, 58: 216-226. DOI: 10.1016/j.patcog.2016.04.002

    [9]

    Aghaziyarati S, Moradi S, Talebi H. Small infrared target detection using absolute average difference weighted by cumulative directional derivatives[J]. Infrared Physics & Technology, 2019, 101: 78-87.

    [10]

    GAO C, WANG L, XIAO Y, et al. Infrared small-dim target detection based on Markov random field guided noise modeling[J]. Pattern Recognition, 2018, 76: 463-475. DOI: 10.1016/j.patcog.2017.11.016

    [11]

    WANG X, PENG Z, KONG D, et al. Infrared dim target detection based on total variation regularization and principal component pursuit[J]. Image and Vision Computing, 2017, 63: 1-9. DOI: 10.1016/j.imavis.2017.04.002

    [12]

    WANG H, ZHOU L, WANG L. Miss detection vs. false alarm: adversarial learning for small object segmentation in Infrared images[C]//IEEE/CVF International Conference on Computer Vision (ICCV), 2019: 8508-8517.

    [13]

    LI B, XIAO C, WANG L, et al. Dense nested attention network for infrared small target detection[J]. IEEE Transactions on Image Processing, 2023, 32: 1745-1758. DOI: 10.1109/TIP.2022.3199107

    [14]

    WU X, HONG D, CHANUSSOT J. UIU-Net: U-Net in U-Net for infrared small object detection[J]. IEEE Transactions on Image Processing, 2023, 32: 364-376. DOI: 10.1109/TIP.2022.3228497

    [15]

    DAI Y, WU Y, ZHOU F, et al. Asymmetric contextual modulation for infrared small target detection[C]// IEEE Winter Conference on Applications of Computer Vision (WACV), 2021: 949-958.

    [16]

    DAI Y, WU Y, ZHOU F, et al. Attentional local contrast networks for infrared small target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(11): 9813-9824. DOI: 10.1109/TGRS.2020.3044958

    [17]

    LI G, YU Y. Deep contrast learning for salient object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 478-487.

    [18]

    ZHANG P, WANG D, LU H, et al. Amulet: Aggregating multi-level convolutional features for salient object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 202-211.

    [19]

    HUANG L, DAI S, HUANG T, et al. Infrared small target segmentation with multiscale feature representation[J]. Infrared Physics & Technology, 2021, 116: 103755.

    [20]

    Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention–MICCAI, 2015: 234-241.

    [21]

    Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. arXiv: 1706.03762, 2017.

    [22]

    CHEN J, LU Y, YU Q, et al. Transunet: Transformers make strong encoders for medical image segmentation[J]. arXiv preprint arXiv: 2102.04306, 2021.

    [23]

    LIU F, GAO C, CHEN F, et al. Infrared small-dim target detection with transformer under complex backgrounds[J]. arXiv preprint arXiv: 2109.14379, 2021.

    [24]

    WU T, LI B, LUO Y, et al. MTU-Net: Multi-level TransUNet for space-based infrared tiny ship detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 3235002.

    [25]

    WANG W, XIE E, LI X, et al. Pyramid vision transformer: A versatile backbone for dense prediction without convolutions[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021: 568-578.

    [26]

    LIN T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 2980-2988.

    [27]

    ZHANG M, ZHANG R, YANG Y, et al. ISNET: Shape matters for infrared small target detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 877-886.

    [28]

    XIA C, LI X, ZHAO L, et al. Infrared small target detection based on multiscale local contrast measure using local energy factor[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(1): 157-161. DOI: 10.1109/LGRS.2019.2914432

    [29]

    GAO C, MENG D, YANG Y, et al. Infrared patch-image model for small target detection in a single image[J]. IEEE Transactions on Image Processing, 2013, 22(12): 4996-5009. DOI: 10.1109/TIP.2013.2281420

  • 期刊类型引用(4)

    1. 陈秋艳,张新燕,贺敏,田义春,刘宁,郭瑞,王晓辉,游思源,张修坤. 基于深度学习的管道热图像泄漏识别. 红外技术. 2024(05): 522-531 . 本站查看
    2. 袁敏. 基于机器视觉的智能建造H型钢焊接焊缝轨迹跟踪方法. 西昌学院学报(自然科学版). 2024(03): 46-51+99 . 百度学术
    3. 吴丽华,聂丰英. 基于复小波与最大后验估计的红外图像滤波. 光学技术. 2023(01): 113-119 . 百度学术
    4. 欧卫红,万里勇. 双密度复小波与系数相关性的红外图像去噪. 光学技术. 2023(02): 238-244 . 百度学术

    其他类型引用(6)

图(5)  /  表(7)
计量
  • 文章访问数:  59
  • HTML全文浏览量:  29
  • PDF下载量:  28
  • 被引次数: 10
出版历程
  • 收稿日期:  2023-05-23
  • 修回日期:  2023-07-10
  • 刊出日期:  2024-09-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日