RBNSM:一种复杂背景下红外弱小目标检测新方法

蔺素珍, 张海松, 禄晓飞, 李大威, 李毅

蔺素珍, 张海松, 禄晓飞, 李大威, 李毅. RBNSM:一种复杂背景下红外弱小目标检测新方法[J]. 红外技术, 2022, 44(7): 667-675.
引用本文: 蔺素珍, 张海松, 禄晓飞, 李大威, 李毅. RBNSM:一种复杂背景下红外弱小目标检测新方法[J]. 红外技术, 2022, 44(7): 667-675.
LIN Suzhen, ZHANG Haisong, LU Xiaofei, LI Dawei, LI Yi. RBNSM: a New Method for Infrared Dim and Small Target Detection in Complex Backgrounds[J]. Infrared Technology , 2022, 44(7): 667-675.
Citation: LIN Suzhen, ZHANG Haisong, LU Xiaofei, LI Dawei, LI Yi. RBNSM: a New Method for Infrared Dim and Small Target Detection in Complex Backgrounds[J]. Infrared Technology , 2022, 44(7): 667-675.

RBNSM:一种复杂背景下红外弱小目标检测新方法

基金项目: 

山西省自然科学基金项目 201901D111151

中北大学第十七届研究生科技立项项目 20201737

详细信息
    作者简介:

    蔺素珍(1966-),女,教授,博士,硕士生导师,主要从事图像处理、红外小目标检测和多波段图像融合领域研究。E-mail:lsz@nuc.edu.cn

  • 中图分类号: TP751.1

RBNSM: a New Method for Infrared Dim and Small Target Detection in Complex Backgrounds

  • 摘要: 弱小目标检测是红外探测与跟踪任务中的经典难题。针对复杂背景下红外弱小目标普遍存在检测率低、虚警率高的问题,提出一种基于区域双邻域显著图(Regional Bi-Neighborhood Saliency Map,RBNSM)的复杂背景红外弱小目标检测新方法。利用弱小目标的局部先验特性定义滑动窗口并划分为多个单元,计算中心单元前若干个最大灰度的均值来凸显弱目标;分别构建中心单元的相接邻域和相隔邻域并计算各自的灰度均值,进而,从不同方向上提取两邻域显著图并点乘二者以进一步抑制杂波背景、增强弱小目标;最后,通过自适应提取准确检测目标。多种典型红外复杂背景图像和SIRST数据集检测结果表明:与7种代表性方法相比,RBNSM在复杂背景下具有更好的检测性能与杂波抑制能力。
    Abstract: Infrared dim and small target (IRDST) detection is a longstanding and challenging problem in infrared search and track systems. To address the problems of a low detection rate and high false alarm rate for dim and small targets in complex backgrounds, a method is proposed for detecting IRDSTs using a regional bi-neighborhood saliency map (RBNSM). First, using the local a-priori property of the weak target, a sliding window is defined and divided into multiple cells before the mean value of the first maximum gray levels of the central cell is calculated to highlight the weak target. Then, the adjacent and spaced neighbors of the central cell are constructed and the mean value of their respective gray levels is calculated. Subsequently, the salient maps of the two neighbors are the extracted from different directions and multiplied point by point to further suppress the clutter background and enhance the weak target. Finally, the target is accurately detected by adaptive extraction. The detection results of various typical IR complex background images and SIRST datasets show that RBNSM has a better detection performance and clutter suppression ability in complex backgrounds than the seven representative methods.
  • 图像融合可以将多幅不同成像机制的同一场景图像通过融合算法合成为一张新的图像,以有利于人眼观察和计算机处理[1],目前已经在医学[2]、遥感[3]、军事[4]等邻域得到广泛运用。红外图像和可见光图像融合旨在利用图像融合算法运用红外图像和可见光图像的不同成像特点得到场景内目标更全面、清晰、准确的图像[5]。红外获取的图像不依赖于光照条件,抗干扰能力较强,但通常对比度和分辨率都较低,不能有效获取目标场景的细节信息[6]。可见光图像通常分辨率较高,边缘纹理等细节信息丰富,但依赖于光照条件[7]。红外图像与可见光图像之间有很强的信息互补性,充分利用两种图像信息的互补性,将这两种图像进行融合,可以得到目标场景清晰的图像。红外图像和可见光图像融合技术在军事、安全等邻域已经有较为广泛的运用[8]

    像素级的图像融合方法包含空间域融合和变换域融合方法。空间域的融合方法在像素层面上进行融合,复杂度低,但融合图像通常信息保留不完整[9]。变换域融合方法是基于多尺度变换理论将图像进行多层分解,得到源图像的低频近似子带和高频细节子带[10]。利用低频子带和高频子带的不同特点将低频子带和高频子带分别采用不同的融合规则融合,最后通过逆变换得到重构的融合图像。常用的多尺度变换如:金字塔变换、小波变换、轮廓波变换、非下采样Contourlet变换[11]等。金字塔变换的数据冗余度高且缺乏方向性[12]; 小波变换克服了金字塔变换的缺点,在不同尺度上具有水平、垂直和对角线3个方向的分解信息[13]; 在一定程度上提高了图像融合的效果; 但在二维奇异曲线的表示上还具有局限性; Curvelet变换[14]的提出旨在更好地解决曲线奇异性问题; 轮廓波变换是文献[15]提出的一种图像二维表示方法,能够更好地表示图像轮廓,但低频子带和高频子带中存在频谱混叠现象[16],为消除轮廓波变换的频谱混叠现象,文献[17]中提出的非下采样轮廓波变换(non-subsampled contourlet transform, NSCT),删除了下采样操作,具有更好的频谱特性[18]

    本文算法对源图像首先进行初处理,然后对其进行NSCT分解。低频子带利用红外图像显著性图进行加权融合,在获取显著性图时,对传统FT算法进行基于引导滤波的改进以突出边界显著性; 对高频子带采用基于马氏距离加权的拉普拉斯能量和取大的融合规则以获得更多的细节信息。实验结果表明,本文算法相较传统小波变化和NSCT变换等算法而言,不仅在主观视觉上表现较好,在客观评价上也有较好的表现。

    轮廓波变换不具有平移不变性的原因就在于拉普拉斯金字塔和方向滤波器组中存在的上采样和下采样。在NSCT中,为保留变换的方向和多尺度属性,拉普拉斯金字塔被替换为非下采样金字塔滤波器组(non-subsampled pyramid filter banks, NSP)以保留多尺度属性,以及将非下采样方向滤波器组(non-subsampled direction filter banks, NSDFB)用于方向性分解。在图像进行S层NSCT变换后,我们可以得到1个低频子带图像和$\sum\nolimits_{s = 1}^S {{2^{{k_s}}}} $个方向子带,其中s是分解层数,ks是第s层的方向分解级数。

    进行NSCT分解时,对源图像首先经过塔形分解为高通和低通,对高通部分再进行多方向分解,低通部分继续进行二层分解[19]。如图 1为NSCT两层分解的示意图。

    图  1  NSCT分解过程
    Figure  1.  The decomposition process of NSCT

    可见光成像容易受光照等条件的影响,获取的图像有时对比度较低,使用这样的源图像进行融合会丢掉很多图像目标细节信息,因此需要对源可见光图像进行对比度增强[20-21]。对比度受限的自适应直方图均衡(contrast limited adaptive histogram equalization,CLAHE)将图像划分为若干个小块,对每个子块的直方图做裁剪,然后将裁剪的部分均匀地分布在整个灰度区间上。在将图像进行分块处理时,图像容易出现块状效应,为解决这个问题,每个子块上像素点的值由它周围4个子块的映射函数进行双线性插值得到,角点处像素点由该子块的映射函数得到,边缘子块的像素值则以相邻两个子块的映射函数做线性插值得到。

    本文采用CLAHE算法对可见光图像进行对比度增强,分别使用传统直方图均衡化算法(histogram equalization, HE)和CLAHE算法对可见光图像增强的结果如图 2所示。

    图  2  可见光图像对比度增强
    Figure  2.  Visible image contrast enhancement

    人眼在观察一幅图像时,有些区域会引起人眼极大的兴趣,有些区域则会被忽略。而红外图像中的目标通常为人眼视觉的显著性区域,以人类视觉机制为基础,构建图像显著性模型[21],将人眼对图像各区域感兴趣的程度使用灰度信息进行量化,即可获得图像的显著性图。

    FT算法是提取图像显著性图的一种常用算法,FT算法获取图像显著性图的算法如下式(1)所示:

    $$ S(i, j) = |{I_{\rm{ \mathsf{ μ} }}} - {I_{{\rm{gauss}}}}(i, j)| $$ (1)

    式中:Iμ为输入图像I的均值; Igauss(i, j)为输入图像经高斯滤波后的图像在点(i, j)处的像素值。

    高斯模糊在对图像进行细节平滑滤波时会使图像边缘也变得模糊,而引导滤波作为一种可以保持图像边缘的滤波方法可以有效地在滤波过程中保持图像的边缘,可以有效突出图像显著性区域的边界,基于此,本文使用引导滤波对传统FT算法进行改进,提出基于引导滤波的红外图像显著性图提取方法。引导滤波是一种自适应滤波器,能够在平滑图像的同时起到保持边界的作用[22]。引导滤波处理图像时,通过一张引导图I对输入图像p进行滤波处理,滤波后的输出图像与输入图像的纹理部分与引导图像相似。在使用引导滤波时,如果引导图像与输入图像相同,此时引导滤波成为一个保持边缘的滤波操作。在局部窗口内使用线性模型,使得滤波器输出结果与引导图在局部窗口内的梯度一致。引导滤波函数的输入和输出在一个局部窗口内满足线性关系如下式(2):

    $$ {q_i} = {a_k}{I_i} + {b_k}, \forall i \in {\omega _k} $$ (2)

    式中:I为引导图像; q为输出图像; ωk是中心像素点为k的局部窗口; akbk为当前窗口通过最小成本函数E(ak, bk)获得,如下式(3)所示:

    $$ E({a_k}, {b_k}) = \sum\limits_{i \in {\omega _k}} {({{({a_k}{I_i} + {b_k} - {p_i})}^2} + \varepsilon a_k^2)} $$ (3)

    式中:ε是用来调节ak,防止ak过大的参数,对代价函数进行求解,可以得到akbk得最优解。

    $$\left\{ {\begin{array}{*{20}{c}} {{a_k} = \frac{{\frac{1}{{|\omega |}}\sum\nolimits_{i \in {\omega _k}} {{I_i}{p_i} - {\mu _k}{{\bar p}_k}} }}{{\sigma _k^2 + \varepsilon }}}\\ {{b_k} = {p_k} - {a_k}{\mu _k}} \end{array}} \right.$$ (4)

    式中:μk为局部窗口内引导图像I的均值; σk为局部窗口内引导图像I的方差; |ω|为局部窗口大小; pk为输入图像在局部窗口内的均值。由于滤波窗口滑动,同一个像素会出现在不同的窗口中,对同一像素位置在不同窗口下的akbk取平均值得到该像素位置的滤波参数,则某一像素点的滤波输出为:

    $${q_i} = {\bar a_i}{I_i} + {\bar b_i}$$ (5)

    其中:

    $$\left\{ {\begin{array}{*{20}{c}} {{{\bar a}_i} = \frac{1}{{|\omega |}}\sum\nolimits_{k:i \in {\omega _k}} {{a_k}} }\\ {{{\bar b}_i} = \frac{1}{{|\omega |}}\sum\nolimits_{k:i \in {\omega _k}} {{b_k}} } \end{array}} \right.$$ (6)

    假设G(x, y)为红外图像同时作为引导图像和输入图像输入到引导滤波中的输出图像,将此输出图像代替公式(1)中的高斯滤波图像,因此,基于引导滤波改进的FT算法显著性图计算公式如下:

    $${S_{\rm{g}}}(i, j) = |{I_{\rm{ \mathsf{ μ} }}} - G(i, j)|$$ (7)

    将获得的红外图像显著性图进行归一化:

    $${S_{\rm{m}}}(i, j) = \frac{{{S_{\rm{g}}}(i, j) - \min {S_{\rm{g}}}}}{{\max {S_{\rm{g}}} - \min {S_{\rm{g}}}}}$$ (8)

    式中:maxSg和minSg分别为Sg的最大灰度值和最小灰度值。最后对归一化的显著性图做对比度拉伸得到最后的红外图像显著性图,拉伸函数如下式(9):

    $${S_{{\rm{ir}}}}(i, j) = \frac{1}{{1 + {{(\frac{1}{{2{S_{\rm{m}}}(i, j)}})}^{10}}}}$$ (9)

    传统的拉普拉斯能量和(sum of modified Laplacian, SML)[23]使用水平和垂直两个方向来计算拉普拉斯能量值,为获得更好的细节信息表征效果,本文计算4个方向上的拉普拉斯能量值,其计算方式如下式(10):

    $$\begin{array}{c} {\rm{ML}}(i, j) = |2I(i, j) - I(i - 1, j) - I(i + 1, j)| + \\ |2I(i, j) - I(i, j - 1) - I(i, j + 1)| + \\ |2I(i, j) - I(i - 1, j - 1) - I(i - 1, j + 1)| + \\ |2I(i, j) - I(i + 1, j + 1) - I(i + 1, j - 1)| \end{array}$$ (10)

    马氏距离可以计算样本到样本“重心”之间的距离,样本到样本“重心”的距离越大[24-25],表明该样本与总体偏离越远,与样本的相关度越低,使用马氏距离对拉普拉斯能量进行加权求和。设以点(x, y)为中心的3×3邻域Qx, y内ML的均值和协方差为μσ,则邻域内的点(i, j)到该邻域内基于拉普拉斯能量ML的马氏距离为:

    $$ d(i, j) = \sqrt {{{({\rm{ML}}(i, j) - \mu )}^{\rm{T}}}*{\sigma ^{ - 1}}*({\rm{ML}}(i, j) - \mu )} $$ (11)

    使用函数1/ex将马氏距离映射到[0, 1]区间内计算拉普拉斯能量求和的权值,但指数函数运算给计算机硬件实现带来了极大的不便,因此采用麦克劳林公式对指数函数ex进行分式展开如下:

    $${e^x} = 1 + x + \frac{{{x^2}}}{{2!}} + ... + \frac{{{x^n}}}{{n!}} + o({x^n})$$ (12)

    由此,使用1/ex的逼近函数1/(1+x)计算拉普拉斯能量和的权值:

    $$w(i, j) = \frac{1}{{1 + d(i, j)}}$$ (13)

    则使用马氏距离加权计算的点(x, y)的改进拉普拉斯能量和SL为:

    $${\rm{SL}}(x, y) = \sum\limits_{(i, j) \in {Q_{x, y}}} {w(i, j)*{\rm{ML}}(i, j)} $$ (14)

    本文结合NSCT变换的系数特点和可见光与红外图像的成像特点,首先对可见光图像进行对比度增强处理,并将红外图像与CLAHE处理后可见光图像经过NSCT变换分解为低频近似图像和一系列高频细节图像; 低频图像是源图像的一个近似图像,对低频图像使用红外显著性图融合; 高频图像中包含了图像的细节纹理信息,使用马氏距离对拉普拉斯能量和进行改进,对高频采用改进拉普拉斯能量和取大的融合规则进行融合; 融合的低频图像和高频图像经过NSCT逆变换后获得最终融合图像。如图 3为本文算法融合框架图。

    图  3  融合框架
    Figure  3.  Fusion framework

    对CLAHE增强后的可见光图像VIS和红外图像IR进行NSCT多层分解,设CLvisCLir分别为VIS和IR的低频系数,Cs, kvisCs, kir分别表示VIS和IR的第s层第k个方向的高频系数。对低频系数采用红外图像的显著性图进行加权融合,其融合规则为:

    $$C_{\rm{L}}^{\rm{F}}(i, j) = {w_1}(i, j)*C_{\rm{L}}^{{\rm{ir}}}(i, j) + {w_2}*C_{\rm{L}}^{{\rm{vis}}}(i, j)$$ (15)

    其中权值:

    $$\left\{ {\begin{array}{*{20}{c}} {{w_1}(i, j) = {S_{{\rm{ir}}}}(i, j)}\\ {{w_2}(i, j) = 1 - {w_1}(i, j)} \end{array}} \right.$$ (16)

    对高频系数采用马氏距离加权改进的拉普拉斯能量和取大的规则进行融合。

    $$C_{s, k}^{\rm{F}}(i, j) = \left\{ {\begin{array}{*{20}{c}} {C_{s, k}^{{\rm{ir}}}(i, j), {\rm{SL}}_{s, k}^{{\rm{ir}}}(i, j) > {\rm{SL}}_{s, k}^{{\rm{vis}}}(i, j)}\\ {C_{s, k}^{{\rm{vis}}}(i, j), {\rm{SL}}_{s, k}^{{\rm{ir}}}(i, j) \le {\rm{SL}}_{s, k}^{{\rm{vis}}}(i, j)} \end{array}} \right.$$ (17)

    为验证本文算法的有效性,将本文算法(NSCT-M)与多种融合算法融合的红外图像和可见光图像进行实验对比,如图 4所示为可见光图像和红外图像源图像。第一组图像为白天拍摄的远距离海上船只的图像,第二组图像为白天拍摄的目标与背景难以区分的图像,第三组图像为夜间拍摄的街道场景。

    图  4  可见光源图像与红外源图像
    Figure  4.  Source image of visible light image and infrared image

    图 5为3组实验图像对比结果,对比实验设置为:小波变换(DWT)融合方法的源图像采用二维离散小波变换分解,低频采用取均值的融合规则、高频采用区域能量取大的融合规则。基于NSCT分解的融合算法以及本算法采用三层分解。NSCT融合低频采用取均值的融合规则、高频采用区域能量取大的融合规则; NSCT-FT融合低频采用红外图像FT显著性图提取加权融合的规则、高频采用区域能量取大的融合规则。NSCT-M为本文所提的融合框架算法。

    图  5  实验图像对比
    Figure  5.  The comparison of experimental images

    从主观视觉上看,本文所提算法在图像清晰度以及细节边缘的保持上都优于其他3组融合算法。为进一步验证实验的有效性,使用信息熵(information entropy, EI)、标准差(standard deviation, SD)、平均梯度(average gradient, AG)和空间频率(spatial frequency, SF)图像融合客观评价指标对3组实验融合图像进行客观评价。从表 1的客观评价指标上分析,本文算法相对其他算法保留的图像信息更多、图像清晰度更高、细节纹理信息也更丰富。

    表  1  融合图像客观评价结果
    Table  1.  Objective evaluation results of fusion image
    Image name Fusion method EI SD AG SF
    Ship   DWT 4.9016 10.4666 1.4100 3.1531
      NSCT 4.9139 10.4807 1.3980 3.1546
      NSCT-FT 5.9540 21.1184 1.6376 3.9024
      NSCT-M 6.5735 25.8154 4.7976 10.1821
    Man   DWT 6.5266 31.5238 2.9829 5.5125
      NSCT 6.5491 31.7851 3.2272 6.3206
      NSCT-FT 7.1864 61.6516 3.4935 7.1168
      NSCT-M 7.6698 58.7864 8.8359 15.5185
    Street   DWT 5.9299 20.6524 3.1668 7.7725
      NSCT 5.9442 21.8888 3.7054 12.7396
      NSCT-FT 5.5269 33.4513 4.0396 13.8090
      NSCT-M 6.8136 41.2933 8.4553 20.3821
    下载: 导出CSV 
    | 显示表格

    本文算法利用NSCT变换的系数特点,利用可见光图像与红外图像之间信息的互补性与冗余性,对红外图像和可见光图像进行融合。针对可见光对比度低的问题,采用对比度受限的直方图均衡算法调整可见光图像的对比度。在对低频图像进行融合时,使用引导滤波改进的FT显著性图提取算法对红外图像提取显著性图,利用红外图像显著性图对低频图像做加权融合; 在对高频图像进行融合时,针对传统算法通过四领域计算拉普拉斯能量的局限,本文使用八邻域计算拉普拉斯能量,并使用马氏距离对邻域内的拉普拉斯能量进行加权求和,最后使用改进的拉普拉斯能量和取大的规则对高频图像进行融合。理论分析与实验结果及指标表明,本文算法在主观视觉图像上和客观评价指标上都有较好的表现。

  • 图  1   RBNSM总体框架

    Figure  1.   General framework of RBNSM

    图  2   目标单元与背景单元分布

    Figure  2.   Distribution of target and background cells

    图  3   五种不同场景的复杂图像三维图及本方法显著性图

    Figure  3.   Three-dimensional maps of complex images of five different scenes and the saliency map of this method

    图  4   不同红外场景下7种算法的ROC曲线

    Figure  4.   ROC curves of 7 algorithms in different infrared scenarios

    图  5   不同尺度目标的红外图像原图、标签图及本方法结果

    Figure  5.   Original Infrared image, label image and result image of targets with different scales

    图  6   多目标的红外图像原图、标签图及本方法检测结果

    Figure  6.   The original infrared image, label image and detection result of the multi-target

    表  1   本方法在SIRST数据集上不同K值与λ值的nIoU值

    Table  1   nIoU values for different K and λ values of this method on the SIRST dataset

    K 1 2 3 4 5 6
    nIoU 0.5472 0.5558 0.5467 0.5366 0.5131 0.4888
    K 7 8 9
    nIoU 0.4517 0.4186 0.3862
    λ 0 1 2 3 4 5
    nIoU 0.4846 0.5445 0.5558 0.5533 0.5499 0.5466
    下载: 导出CSV

    表  2   测试图像基本特征

    Table  2   Basic features of the test image

    Image Size Target Size SCR Scene Description
    a 126×127 4×3 1.7862 Building edge and heavy noise
    b 128×128 3×3 1.4275 White patches and heavy noise
    c 255×320 3×2 1.1152 Faint targets drown in background
    d 305×405 2×3 0.8040 Strong cloud interference
    e 256×256 3×3 1.1950 Strong building edge interference
    下载: 导出CSV

    表  3   5种不同场景红外图像的SCRG,BSF和时间消耗

    Table  3   SCRG, BSF and time consumption for 5 different scenes of IR images

    Image Index AAGD[26] PSTNN[17] LEF[24] TLLCM[25] HBMLCM[22] RLCM[23] RBNSM
    a SCRG
    BSF
    Time/s
    3.4482
    2.5841
    0.0103
    7.2142
    3.2782
    0.1454
    21.0433
    6.1053
    2.8768
    10.7899
    3.0621
    1.5073
    6.0033
    2.9321
    0.0383
    8.7069
    1.0584
    2.3580
    55.8439
    10.7154
    0.1193
    b SCRG
    BSF
    Time/s
    3.4781
    6.3289
    0.0133
    3.4120
    12.5161
    0.1023
    5.5669
    4.4671
    2.0580
    7.7367
    4.3538
    1.4525
    3.3712
    2.7164
    0.0110
    0.8943
    1.7737
    2.1472
    65.5746
    18.5168
    0.1476

    c
    SCRG
    BSF
    Time/s
    0.0524
    10.4722
    0.0387
    0.0137
    26.0004
    0.5546
    29.4364
    11.5055
    10.2756
    20.0115
    11.5709
    6.0454
    0.3882
    8.9662
    0.0434
    1.2931
    4.1872
    10.7094
    126.9818
    38.0842
    0.5666

    d
    SCRG
    BSF
    Tim/s
    15.0705
    1.1310
    0.0537
    119.5938
    32.2470
    1.1583
    66.1633
    23.6170
    18.5141
    36.5679
    11.6517
    8.5484
    78.5632
    19.0847
    0.0651
    11.8546
    5.7182
    15.3649
    180.5421
    183.3723
    1.6434
    e SCRG
    BSF
    Time/s
    16.4635
    4.6741
    0.0276
    28.2547
    11.6653
    0.4174
    53.0661
    18.7079
    8.6336
    69.5144
    26.1979
    5.4414
    31.0343
    10.7358
    0.0257
    25.8079
    4.6734
    8.5788
    217.6813
    50.7863
    0.4615
    下载: 导出CSV

    表  4   每种方法在SIRST数据集上的平均指标

    Table  4   Average metrics for each method on the SIRST dataset

    AAGD PSTNN LEF TLLCM HBMLCM RLCM ACM[11] RBNSM
    SCRG 167.795 543.545 120.466 200.517 174.422 97.610 - 964.319
    BSF 34.174 73.079 22.717 46.599 61.351 9.235 - 280.170
    nIoU 0.2871 0.5987 0.2282 0.1943 0.2639 0.1418 0.4154 0.5558
    Time(CPU/s) 0.012 0.138 8.557 4.032 0.026 6.515 1.137 0.438
    下载: 导出CSV
  • [1]

    GUAN X, ZHANG L, HUANG S, et al. Infrared small target detection via non-convex tensor rank surrogate joint local contrast energy[J]. Remote Sensing, 2020, 12(9): 1520. DOI: 10.3390/rs12091520

    [2]

    LU R, YANG Xiaogang, LI W, et al. Robust infrared small target detection via multidirectional derivative-based weighted contrast measure[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 1(1): 1-5.

    [3]

    ZHANG L, LIN Z. Infrared small target detection based on anisotropic contrast filter[C]//2020 IEEE 5th International Conference on Signal and Image Processing (ICSIP). IEEE, 2020: 70-73.

    [4]

    SUN Y, YANG J, AN W. Infrared dim and small target detection via multiple subspace learning and spatial-temporal patch-tensor model[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020(99): 1-16.

    [5]

    GAO C, MENG D, YANG Y, et al. Infrared patch-image model for small target detection in a single image[J]. IEEE Transactions on Image Processing, 2013, 22(12): 4996-5009. DOI: 10.1109/TIP.2013.2281420

    [6] 吴双忱, 左峥嵘. 基于深度卷积神经网络的红外小目标检测[J]. 红外与毫米波学报, 2019, 38(3): 371-380. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYH201903019.htm

    WU Shuangchen, ZUO Zhengrong. Small target detection in infrared images using deep convolutional neural networks[J]. Journal of Infrared Millimeter Waves, 2019, 38(3): 371-380. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYH201903019.htm

    [7]

    DAI Y, WU Y, ZHOU F, et al. Attentional local contrast networks for infrared small target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021(99): 1-12.

    [8]

    LIN S, HAN Z, LI D, et al. Integrating model-and data-driven methods for synchronous adaptive multi-band image fusion[J]. Information Fusion, 2020, 54: 145-160. DOI: 10.1016/j.inffus.2019.07.009

    [9] 赵兴科, 李明磊, 张弓, 等. 基于显著图融合的无人机载热红外图像目标检测方法[J/OL]. 自动化学报: 1-15. [2021-07-02]. http://kns.cnki.net/kcms/detail/11.2109.tp.20200421.1108.003.html.

    ZHAO Xingke, LI Minglei, ZHANG Gong, et al. Object Detection Method Based on Saliency Map Fusion for UAV-borne Thermal Images[J/OL]. Acta Automatica Sinica, 1-15. [2021-07-02]. http://kns.cnki.net/kcms/detail/11.2109.tp.20200421.1108.003.html.

    [10]

    WANG H, ZHOU L, WANG L. Miss detection vs. false alarm: Adversarial learning for small object segmentation in infrared images[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 8509-8518.

    [11]

    DAI Y, WU Y, ZHOU F, et al. Asymmetric contextual modulation for infrared small target detection[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). 2021: 950-959.

    [12]

    LI B, XIAO C, WANG L, et al. Dense Nested Attention Network for Infrared Small Target Detection[J/OL]. arXiv preprint arXiv: 2 106.00487, 2021.

    [13]

    ZHAO M, CHENG L, YANG X, et al. TBC-Net: A real-time detector for infrared small target detection using semantic constraint[J/OL]. Computer Vision and Pattern Recognition, 2019. https://arxiv.org/abs/2001.05852.

    [14]

    NIE Y, LI W, ZHAO M, et al. Infrared small target detection in image sequences based on temporal low-rank and sparse decomposition[C]// Proc. SPIE, Twelfth International Conference on Graphics and Image Processing, 2021: 11720A.

    [15] 薛锡瑞, 黄树彩, 马佳顺, 等. 基于局部熵参考预处理的RPCA红外小目标检测[J]. 红外技术, 2021, 43(7): 649-657. http://hwjs.nvir.cn/article/id/e8541151-1530-4561-ad38-42349b5da1b8

    XUE Xirui, HUANG Shucai, MA Jiashun, et al. RPCA infrared small target detection based on local entropy reference in preprocessing[J]. Infrared Technology, 2021, 43(7): 649-657. http://hwjs.nvir.cn/article/id/e8541151-1530-4561-ad38-42349b5da1b8

    [16]

    ZHANG T, WU H, LIU Y, et al. Infrared small target detection based on non-convex optimization with lp-norm constraint[J]. Remote Sensing, 2019, 11(5): 559. DOI: 10.3390/rs11050559

    [17]

    ZHANG L, PENG Z. Infrared Small Target Detection Based on Partial Sum of the Tensor Nuclear Norm[J]. Remote Sensing, 2019, 11(4): 382. DOI: 10.3390/rs11040382

    [18]

    ZHANG Tianfang, PENG Zhenming, WU Hao, et al. Infrared small target detection via self-regularized weighted sparse model[J]. Neurocomputing, 2021, 420: 124-148. DOI: 10.1016/j.neucom.2020.08.065

    [19]

    CHEN C L P, LI H, WEI Y, et al. A local contrast method for small infrared target detection[C]//IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 574-581. Doi: 10.1109/TGRS.2013.2242477.

    [20] 刘松涛, 刘振兴, 姜宁. 基于融合显著图和高效子窗口搜索的红外目标分割[J]. 自动化学报, 2018, 44(12): 2210−2221 https://www.cnki.com.cn/Article/CJFDTOTAL-MOTO201812008.htm

    LIU Songtao, LIU Zhenxing, JIANG Ning. Target segmentation of infrared image using fused saliency map and efficient subwindow search[J]. Acta Automatica Sinica, 2018, 44(12): 2210−2221 https://www.cnki.com.cn/Article/CJFDTOTAL-MOTO201812008.htm

    [21]

    WEI Y T, YOU X G, LI H. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recogn., 2016, 58: 216-226. DOI: 10.1016/j.patcog.2016.04.002

    [22]

    SHI Y F, WEI Y T, YAO H, et al. High-boost-based multiscale local contrast measure for infrared small target detection[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15: 33-37. DOI: 10.1109/LGRS.2017.2772030

    [23]

    HAN JH, LIANG K, ZHOU B, et al. Infrared small target detection utilizing the multiscale relative local contrast measure[J]. IEEE Geosci. Remote Sens. Lett., 2018, 15: 612-616. DOI: 10.1109/LGRS.2018.2790909

    [24]

    XIA C, LI X, ZHAO L, et al. Infrared small target detection based on multiscale local contrast measure using local energy factor[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(1): 157-161. DOI: 10.1109/LGRS.2019.2914432

    [25]

    HAN J, Moradi S, Faramarzi I, et al. A local contrast method for infrared small-target detection utilizing a tri-layer window[J]. IEEE Geoscience and Remote Sensing Letter, 2020, 17(10): 1822-1826 DOI: 10.1109/LGRS.2019.2954578

    [26]

    DENG H, SUN X, LIU M, et al. Infrared small-target detection using multiscale gray difference weighted image entropy[J]. IEEE Transactions on Aerospace and Electronic Systems, 2016, 52(1): 60-72. DOI: 10.1109/TAES.2015.140878

    [27]

    HUANG S, LIU Y, HE Y, et al. Structure-adaptive clutter suppression for infrared small target detection: chain-growth filtering[J]. Remote Sensing, 2020, 12(1): 47-69.

  • 期刊类型引用(1)

    1. 花文波,赵城慷,高大友,花文涛. 一种温度补偿调焦红外系统丢包检测方法. 红外技术. 2024(09): 1081-1086 . 本站查看

    其他类型引用(0)

图(6)  /  表(4)
计量
  • 文章访问数:  274
  • HTML全文浏览量:  208
  • PDF下载量:  63
  • 被引次数: 1
出版历程
  • 收稿日期:  2021-10-09
  • 修回日期:  2021-12-07
  • 刊出日期:  2022-07-19

目录

/

返回文章
返回