结合帧差的核相关滤波弱小红外目标检测

王玉萍, 曾毅

王玉萍, 曾毅. 结合帧差的核相关滤波弱小红外目标检测[J]. 红外技术, 2023, 45(7): 755-767.
引用本文: 王玉萍, 曾毅. 结合帧差的核相关滤波弱小红外目标检测[J]. 红外技术, 2023, 45(7): 755-767.
WANG Yuping, ZENG Yi. Weak and Small Infrared Target Detection Combined With Frame Difference Kernel Correlation Filtering[J]. Infrared Technology , 2023, 45(7): 755-767.
Citation: WANG Yuping, ZENG Yi. Weak and Small Infrared Target Detection Combined With Frame Difference Kernel Correlation Filtering[J]. Infrared Technology , 2023, 45(7): 755-767.

结合帧差的核相关滤波弱小红外目标检测

基金项目: 

河南省科技厅科技攻关项目 222102210174

详细信息
    作者简介:

    王玉萍(1979-),女,汉族,河南焦作人,硕士,教授,主要研究方向:图像处理, 视觉与虚拟现实。E-mail: yuping_wang1979@126.com

    通讯作者:

    曾毅(1980-),男,汉族,广西桂林人,硕士,副教授,主要研究方向:视觉与虚拟现实及嵌入式

  • 中图分类号: TP319;TN211

Weak and Small Infrared Target Detection Combined With Frame Difference Kernel Correlation Filtering

  • 摘要: 为了提高红外目标检测的性能,提出了一种结合帧差的核相关滤波弱小红外目标检测算法。算法首先通过核相关滤波训练当前帧获得最大回归值,相对间隔帧求取差值,以此进行循环移位,从而实现对帧间背景运动的补偿;再者借助帧间差分法提取当前帧相对运动特征,增强区分弱小目标和红外背景的能力;最后对相对运动特征进行阈值分割获得最终检测结果。仿真实验显示本算法能有效检测出复杂环境下红外弱小目标,与其他同类算法相比,本算法可以很好地对杂波和点状干扰源进行抑制,获得较高的目标检测率,同时将大量运算置于频域中,运算效率也优于其他算法。
    Abstract: To improve the performance of infrared target detection, weak and small infrared target detection combined with frame difference kernel correlation filtering is proposed. First, the current frame is trained by kernel correlation filtering to obtain the maximum regression value. Then, the difference value is calculated relative to the interval frame to perform a cyclic shift to compensate for the background motion between frames. The relative motion features of the current frame are extracted using the interframe difference method, which enhances the ability to distinguish weak and small targets from the infrared background. Finally, threshold segmentation is performed on the relative motion features to obtain the final detection results. Simulation experiments show that the proposed algorithm effectively detected weak and small infrared targets in complex environments. Compared with similar algorithms, the proposed algorithm suppressed clutter and point-shaped interference sources, and achieved a higher target detection rate. Simultaneously, a large number of operations are placed in the frequency domain, and the operational efficiency is better than that of other algorithms.
  • 红外场景产生器是红外成像系统内场半实物仿真测试的重要组成部分,其可将计算机仿真的灰度图像实时转换为红外成像系统能敏感的红外辐射信号,用来模拟各类目标、背景以及干扰的红外辐射[1]。数字微镜器件(Digital Micro-mirror Device,DMD)以其分辨率高、帧频高、动态范围大等优势广泛应用于各类红外场景产生器中[2]。对于理想的DMD红外场景产生器,在相同的输入下所有微镜单元应产生一致的红外辐射响应。而实际由于光源、光学系统以及DMD器件响应一致性等因素的影响,各个微镜单元的红外辐射响应却并不相同,即表现为红外场景产生器辐射的非均匀性。根据前期调研结果,DMD红外场景产生器当前在国内工业部门的半实物仿真测试中主要用来模拟目标的运动特性,而对目标和背景红外辐射特性的模拟精度要求相对不高,并且鲜有对于人为主动干扰的模拟。DMD红外场景产生器非均匀性对于工业部门红外成像系统半实物仿真测试的影响可以忽略不计,因此在非均匀性校正(Nonuniformity Correction,NUC)方面的研究比较少[3-5]

    对于复杂光电环境下红外成像系统对抗的内场仿真测试试验,红外场景产生器不仅要模拟目标的运动特性,更需要精确模拟目标、背景的红外辐射特性以及自然、人为干扰效应和大气传输效应。此时,DMD红外场景产生器的非均匀性则成为影响其红外场景仿真质量而不容忽视的一个的重要因素。

    为了提高内场仿真试验中红外辐射场景模拟的逼真度,本文在深入研究当前广泛使用的非均匀性校正方法基础上,针对DMD分辨率相对电阻阵列较大的特点,根据非均匀性测量信号的信噪比调整稀疏网格大小,提出一种适用于DMD红外场景产生器的非均匀性测量和校正方法。该方法可有效改善DMD红外场景产生器的非均匀性,提高红外场景模拟精度,对DMD红外场景产生器在红外场景动态仿真方面的应用具有一定参考价值。

    对每个辐射元的辐射响应特性进行精确测量是非均匀性校正的前提。目前国内外对电阻阵列非均匀性测量方法的研究较多并且大多只针对电阻阵列器件自身。本文将在深入研究电阻阵列非均匀性测量方法的基础上,充分考虑DMD特性,提出一种适用于DMD的非均匀性测量方法。同时考虑到DMD配套不同光学系统,其非均匀性表现是不同的,因此本文将对DMD红外场景产生器整个系统的非均匀性进行测量。

    当前关于电阻阵列非均匀性测量的方法主要有“稀疏网格”法和“Flood”法两种,区别主要是非均匀性信息的采集方法和数据处理方法上的不同。稀疏网格法是将电阻阵列划分成网格再对网格中每个辐射元进行逐个测量,而Flood法是把电阻阵列作为一个整体进行测量。测量过程中,Flood法需要精确调校电阻阵列辐射元与热像仪像元之间的映射比,而稀疏网格法则不需要考虑电阻阵列辐射元与热像仪像元之间的映射比,更加简便易用[6-11]。考虑到DMD的辐射元数量远高于电阻阵列,同时也高于大部分红外成像设备,难以准确建立DMD微镜单元与热像仪像元之间的映射比,因此本文主要对稀疏网格法进行研究。

    传统稀疏网格法的测量原理如下[12]:首先在DMD上划分虚拟的网格,网格大小的选取以相邻网格中同一位置微镜单元的辐射能量在探测焦平面不发生混叠为准。然后依次点亮网格图像,对DMD每个微镜单元的输出响应进行测量。DMD的每一幅网格图像都是通过点亮各网格内的某一特定位置上的单个微镜单元产生的。点亮每个网格中第一行第一列的微镜单元,构成第一幅网格图像。对第一幅网格图像测量完毕后,熄灭其中的微镜单元,然后点亮每个网格中第一行第二列的微镜单元,构成第二幅网格图像。依次点亮每个网格中的单个微镜单元,产生一幅幅网格图像,依次对网格图像进行测量,直到对整个DMD测量完毕。依次点亮网格图像的过程可称为网格图像的“移位”。DMD网格图像产生和移位过程如图 1所示,图中为一个假想的4×4 DMD,每个小方格表示一个微镜单元,填充黑色部分表示被点亮的微镜单元。将该DMD划分为4个网格,每个网格的大小为2×2,测量整个DMD共需要投射4幅网格图像。

    图  1  稀疏网格测量示意图
    Figure  1.  Measurement diagram of sparse grid

    稀疏网格法最大的优点在于能够对DMD每一个微镜单元的输出响应进行单独测量,各个微镜单元之间的辐射没有耦合。不过在对单个微镜单元的输出响应进行测量时,由于微镜单元的面积很小,辐射亮度有限。因此在驱动占空较大的高辐射区间即信噪比较高时,测量精度较高,而在驱动占空比较小的低辐射区间即信噪比较低时,很容易受到背景红外辐射和随机噪声的干扰,甚至被淹没掉,所以该方法对测量设备和测试环境的要求很高。为了克服单个微镜单元在低辐射区间容易受到背景红外辐射和随机噪声干扰的难题,本文结合现有测试条件对传统稀疏网格法做了改进,提出一种变尺度的稀疏网格测量方法。

    当DMD辐射亮度较低时,由于红外成像系统探测能力有限,因此在一定区域范围内(m×m)的微镜单元的非均匀性可以近似忽略,并且m值随着DMD辐射亮度的降低而增大。根据该测试现象,与传统稀疏网格法在测量过程中只点亮各网格内单个微镜单元不同,本文将网格内m×m区间范围内的微镜单元同时点亮然后移位,如图 2所示。图中为一个假想的8×8 DMD,每个小方格表示一个微镜单元。设定网格大小为4×4,将该DMD划分为4个网格。在对某一辐射亮度测量过程中,以4个微镜单元为一组,即在网格中2×2区间范围内微镜单元的响应差别可以忽略不计。测量时,首先点亮每个子网格内的第一组微镜单元,取这4个微镜单元响应输出的平均值,将此平均值作为各个子网格内第一组4个微镜单元的响应输出。然后按此方法依次对每个子网格内其它若干组微镜单元的响应输出进行测量,直到对整个DMD的所有微镜单元响应输出测量完毕。

    图  2  变尺度稀疏网格测量示意图
    Figure  2.  Measurement diagram of variable scale sparse grid

    在整个辐射亮度范围测量过程中,以m×m区间范围内微镜单元响应的平均值作为其中每个微镜单元的响应,并且m的取值大小会随着辐射亮度的变化而相应调整。当微镜单元辐射亮度较小时,由于测量信号的信噪比较低,此时m的取值相对较大;测量过程中随着微镜单元辐射亮度逐渐增大,m的取值随之逐渐减小;当微镜单元辐射亮度增大到一定范围时,由于测量信号的信噪比较高,可将m的设置为1,此时测量方法与传统的稀疏网格相同。这样通过调整m值大小可以保证在DMD整个辐射亮度范围内都有较好的测量结果。

    理论上当DMD辐射亮度较小时,忽略同一区间范围内各微镜单元之间的非均匀性,对“面”测量取平均值会带来方法误差,测量精度必然会比对“点”测量要低。然而在实际测量中发现,受测量设备灵敏度所限,当DMD辐射亮度较小时,对“面”测量取平均值的精度反而要优于直接对“点”测量的精度。因此,本文所提出的变尺度稀疏网格测量方法非常适合现有测量条件下对DMD红外场景产生器非均匀性的测量。

    DMD红外场景产生器非均匀性校正的基本思路是首先对非均匀性测量数据进行离线处理,生成非均匀性校正所需的校正参数查找表(Look up table, LUT);然后再根据非均匀性校正参数对DMD红外场景产生器的输入量进行在线修正,以此实现对DMD红外场景产生器非均匀性的实时校正。

    为了降低非均匀校正难度,首先对微镜单元响应特性进行线性化处理。根据微镜单元平均响应特性数据拟合曲线并作为所有微镜单元的标准响应曲线,然后求其反函数作为每个微镜单元的线性化函数。这样,每个微镜单元的输入经过线性化函数运算后再作用于微镜上,即可使得微镜单元的输入与输出近似为线性关系。为了保证线性化运算的实时性,选择选取适当的断点数量将线性化函数分段线性化,如图 3所示。

    图  3  线性化查找表生成原理图
    Figure  3.  The schematic of linearization LUT generation

    假设选取h个断点将其分为h-1个直线段,线性化函数每个直线段都对应一组由增益Glinek和偏置Olinek组成的修正数据,其中:

    $$ \left\{ \begin{array}{l} G_{{\rm{line}}}^k = \frac{{{d^{k + 1}} - {d^k}}}{{{{\bar l}^{k + 1}} - {{\bar l}^k}}}\\ O_{{\rm{line}}}^k = \frac{{{d^k} \cdot {{\bar l}^{k + 1}} - {d^{k + 1}} \cdot {{\bar l}^k}}}{{{{\bar l}^{k + 1}} - {{\bar l}^k}}} \end{array} \right.\quad k = 1, \cdots , h - 1 $$ (1)

    式中:dk为第k个断点处微镜单元的驱动占空比; ${\bar l^k} $为第k个断点处微镜单元的标准响应。将式(1)中增益校正系数Glinek和偏置校正系数Olinek存于缓存以供非线性实时校正时使用,即为线性化查找表。线性化查找表的数据量为2×(h-1)个,与DMD的分辨率无关。

    由于DMD每个微镜单元响应特性的差异,经过线性化处理后,不同微镜单元的响应表现为近似直线的不同曲线。因此还需要通过非均匀性校正将各个微镜单元线性化后的响应曲线归一化到标准响应曲线上,如图 4所示。

    图  4  非均匀性校正查找表生成原理图
    Figure  4.  The schematic of correction LUT generation

    考虑非均匀性校正实时性因素,校正过程采用分段校正方法。对于DMD任意一个位置(i, j)处的微镜单元,同样选取h个断点将其分为h-1个直线段。经过数学推导可得,每个直线段都对应一组由增益$ G_{i, j}^{{\rm{nuc}}, k}$和偏置$ O_{i, j}^{{\rm{nuc}}, k}$组成的修正数据,

    $$ \left\{ \begin{array}{l} G_{i, j}^{{\rm{nuc}}, k} = \frac{{l_{i, j}^{{\rm{corr}}, k + 1} - l_{i, j}^{{\rm{corr}}, k}}}{{l_{i, j}^{{\rm{in}}, k + 1} - l_{i, j}^{{\rm{in}}, k}}}\\ O_{i, j}^{{\rm{nuc}}, k} = l_{i, j}^{{\rm{corr}}, k} - \frac{{l_{i, j}^{{\rm{corr}}, k + 1} - l_{i, j}^{{\rm{corr}}, k}}}{{l_{i, j}^{{\rm{in}}, k + 1} - l_{i, j}^{{\rm{in}}, k}}}l_{i, j}^{{\rm{in}}, k} \end{array} \right.\quad \begin{array}{*{20}{l}} {k = 1, \cdots , h - 1, }\\ {i = 1, \cdots , M, }\\ {j = 1, \cdots , N} \end{array} $$ (2)

    式中:$l_{i, j}^{{\rm{corr}}, k} $、$l_{i, j}^{{\rm{corr}}, k + 1} $分别为分段点处校正后的标准响应输出; $l_{i,j}^{{\rm{in}},k} $、 $ l_{i,j}^{{\rm{in}},k + 1}$分别为分段点处的实际响应输出。将式(2)中的修正数据$(G_{i, j}^{{\rm{nuc}}, k}, O_{i, j}^{{\rm{nuc}}, k}) $增存于缓存以供非线性实时校正时使用,即为非均匀性校正查找表。如果DMD的分辨率为M×N,那么非均匀性校正查找表的数据量即为M×N×2×(h-1)。

    通过上述的数据处理,分别生成了DMD红外场景产生器非均匀性校正所需的线性化查找表和非均匀性校正查找表。在非均匀性实时校正过程中仅需要根据输入在查找表中查找对应的参数进行修正即可,整个非均匀性实时校正流程如图 5所示。

    图  5  非均匀性实时校正流程图
    Figure  5.  The flow of NUC

    中非均匀性实时校正主要分为以下两步:首先根据输入的期望辐射亮度 $l_{i,j}^{{\rm{in}}} $在非均匀性校正查找表中查找相应的修正参数,计算得到校正数据 $l_{i,j}^{{\rm{in}}} $;

    $$ l_{i, j}^{{\rm{corr}}} = G_{i, j}^{{\rm{nuc}}, k} \cdot l_{i, j}^{{\rm{in}}} + O_{i, j}^{{\rm{nuc}}, k}\begin{array}{*{20}{c}} {}&{k = 1, 2, \cdots , h - 1} \end{array} $$ (3)

    然后通过线性化查找表,计算 $l_{i,j}^{{\rm{corr}}} $所对应的控制占空比di, j,驱动DMD产生与期望相同的红外辐射亮度。

    $$ {d_{i, j}} = G_{{\rm{line}}}^k \cdot l_{i, j}^{{\rm{corr}}} + O_{{\rm{line}}}^k\begin{array}{*{20}{c}} {}&{k = 1, 2, \cdots , h - 1} \end{array} $$ (4)

    设DMD红外场景产生器单个微镜单元的输出响应为li, jMN分别为DMD的行数和列数,其非均匀性定义为输出响应标准差与均值之比,如公式(5)所示。

    $$ {\rm{NUC}} = {\rm{Std}}({l_{i, j}})/{\rm{Mean}}({l_{i, j}}) $$ (5)

    式中:

    $$ {\rm{Mean}}({l_{i, j}}) = \frac{1}{{M \times N}}\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^M {{l_{i, j}}} }, $$
    $$ {\rm{Std}}({l_{i, j}}) = \sqrt {\frac{{\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^M {({l_{i, j}}} } - {{\bar l}_{i, j}})}}{{M \times N - 1}}} 。 $$

    非均匀性校正算法的优劣主要取决于校正后残余非均匀性指标,其次还要兼顾对非均匀性校正参数存储量的需求。为验证本文所述非均匀校正算法的效果,在Matlab中对生成的模拟DMD进行仿真验证。以真实DMD微镜单元平均响应特性的实测数据作为模拟DMD的标准响应特性,在标准响应特性曲线采样点的输出数据上添加高斯噪声,模拟DMD红外场景产生器的非均匀性。最终生成的模拟DMD微镜单元的响应曲线如图 6所示。

    图  6  仿真DMD响应特征曲线
    Figure  6.  The response characteristic curve of simulated DMD

    首先,检验分段校正点个数对非均匀校正效果的影响。通过计算,当数值DMD所有微镜单元驱动占空比一致均为50%时,其原始输出的非均匀性为10.72%。通过设定不同分段点数对非均匀性校正算法分别进行了数值计算,结果如表 1所示。

    表  1  不同分段点数非均匀性校正结果
    Table  1.  The NUC results about different segmentation points
    Number of segment points Residual non-uniformity
    3 8.52%
    6 4.42%
    9 0.52%
    12 0.49%
    下载: 导出CSV 
    | 显示表格

    从仿真结果来看,适当增加分段点个数,可以显著降低残余非均匀性,不过达到一定量的时候,继续增加分段点个数不再显著降低剩余非均匀性。过多的分段点会增加校正数据的存储量,影响查表速度,因此需要根据实际需求确定分段校正点的个数,在满足校正精度需求的前提下尽量减少数据量。

    为了验证在不同驱动占空比输入下DMD红外场景产生器非均匀性校正效果,设定分段点的数量为9且固定不变,选取输入为10%~100%的10组数据分别对非均匀性校正算法分别进行了数值计算,结果如表 2所示。

    表  2  不同驱动占空比非均匀性校正结果
    Table  2.  The NUC results about different drive duty cycle
    Drive duty cycle Residual non-uniformity (before correction) Residual non-uniformity (after correction)
    10% 9.34% 0.42%
    20% 9.77% 0.41%
    30% 10.13% 0.45%
    40% 10.32% 0.43%
    50% 10.72% 0.52%
    60% 10.71% 0.51%
    70% 10.74% 0.52%
    80% 10.42% 0.47%
    90% 10.25% 0.43%
    100% 10.11% 0.44%
    下载: 导出CSV 
    | 显示表格

    从仿真结果来看,从未校正数值阵列在不同驱动占空比的非均匀性在10%左右,而校正后的残余非均匀性在0.5%左右,该非均匀性校正方法在不同驱动占空比下均具有较好的校正效果。

    本文结合工程实际应用背景重点研究了DMD红外场景产生器的非均匀性校正方法。首先在深入研究传统稀疏网格测量方法的基础上,充分考虑DMD的红外辐射调制特性,提出了一种变尺度稀疏网格的非均匀性测量方法,该方法可根据测量信号的信噪比调整网格大小,有效解决了传统稀疏网格在低信噪比条件下测量困难的问题。然后研究了分段校正算法的原理与实现方法。最后利用模拟数值DMD对校正算法进行了仿真验证,在不同驱动占空比输入下该方法均可有效降低DMD红外场景产生器的非均匀性。下一步可以考虑在此研究基础上设计基于硬件平台的数据传输校正卡,将非均匀校正算法和参数固化于其中,在工程上实现对DMD红外场景产生器非均匀性的实时校正。

  • 图  1   本文算法示意图

    Figure  1.   Schematic diagram of this algorithm

    图  2   测试场景示意图。(a)场景一;(b)场景二;(c)场景三;(d)场景四

    Figure  2.   Schematic diagram of testing scenario. (a) Scene one; (b) Scene two; (c) Scene three; (d) Scene four

    图  3   场景一在不同间隔帧数下相对特征。(a)第1帧图像;(b) 第3帧图像;(c)第5帧图像;(d)第10帧图像;(e)第1帧图像相对运动特征图;(f)第3帧图像相对运动特征图;(g)第5帧图像相对运动特征图;(h)第10帧图像相对运动特征图

    Figure  3.   Relative characteristics of Scene one at different interval frames. (a) First frame image; (b) Third frame image; (c) Fifth frame image; (d)Tenth frame image; (e) Relative motion feature of the first frame image; (f) Relative motion feature of the third frame image; (g) Relative motion feature of the fifth frame image; (h) Relative motion feature of the tenth frame image

    图  4   场景二在不同间隔帧数下相对特征。(a)第1帧图像;(b) 第3帧图像;(c)第5帧图像;(d)第10帧图像;(e)第1帧图像相对运动特征图;(f)第3帧图像相对运动特征图;(g)第5帧图像相对运动特征图;(h)第10帧图像相对运动特征图

    Figure  4.   Relative characteristics of Scene two at different interval frames. (a) First frame image; (b) Third frame image; (c) Fifth frame image; (d)Tenth frame image; (e) Relative motion feature of the first frame image; (f) Relative motion feature of the third frame image; (g) Relative motion feature of the fifth frame image; (h) Relative motion feature of the tenth frame image

    图  5   场景三在不同间隔帧数下相对特征。(a)第1帧图像;(b) 第3帧图像;(c)第5帧图像;(d)第10帧图像;(e)第1帧图像相对运动特征图;(f)第3帧图像相对运动特征图;(g)第5帧图像相对运动特征图;(h)第10帧图像相对运动特征图

    Figure  5.   Relative characteristics of Scene three at different interval frames. (a) First frame image; (b) Third frame image; (c) Fifth frame image; (d)Tenth frame image; (e) Relative motion feature of the first frame image; (f) Relative motion feature of the third frame image; (g) Relative motion feature of the fifth frame image; (h) Relative motion feature of the tenth frame image

    图  6   场景四在不同间隔帧数下相对特征。(a)第1帧图像;(b) 第3帧图像;(c)第5帧图像;(d)第10帧图像;(e)第1帧图像相对运动特征图;(f)第3帧图像相对运动特征图;(g)第5帧图像相对运动特征图;(h)第10帧图像相对运动特征图

    Figure  6.   Relative characteristics of Scene four at different interval frames. (a) First frame image; (b) Third frame image; (c) Fifth frame image; (d)Tenth frame image; (e) Relative motion feature of the first frame image; (f) Relative motion feature of the third frame image; (g) Relative motion feature of the fifth frame image; (h) Relative motion feature of the tenth frame image

    图  7   场景一检测结果。(a)场景一单帧图像;(b)图a前10帧红外图像;(c)图a和图b的差分结果;(d)图b运动补偿结果;(e) 图a与图d差分结果;(f)图e边缘置零结果;(g)相对运动特征图;(h)目标检测结果

    Figure  7.   Detection results of scenario one. (a)Single frame image in scene one; (b)The first ten infrared images of Figure a; (c)The difference results of Figures a and b; (d)Motion compensation results in Figure b; (e)Difference Results of Figures a and d; (f) The result of edge zeroing in Figure e; (g)Relative motion features; (h)Target detection results

    图  8   场景二检测结果。(a)场景二单帧图像;(b)图a前10帧红外图像;(c)图a和图b的差分结果;(d)图b运动补偿结果;(e) 图a与图d差分结果;(f)图e边缘置零结果;(g)相对运动特征图;(h)目标检测结果

    Figure  8.   Detection results of scenario two. (a)Single frame image in scene two; (b)The first ten infrared images of Figure a; (c)The difference results of Figures a and b; (d)Motion compensation results in Figure b; (e)Difference Results of Figures a and d; (f) The result of edge zeroing in Figure e; (g)Relative motion features; (h)Target detection results

    图  9   场景三检测结果。(a)场景三单帧图像;(b)图a前10帧红外图像;(c)图a和图b的差分结果;(d)图b运动补偿结果;(e) 图a与图d差分结果;(f)图e边缘置零结果;(g)相对运动特征图;(h)目标检测结果

    Figure  9.   Detection results of scenario three. (a)Single frame image in scene three; (b)The first ten infrared images of Figure a; (c)The difference results of Figures a and b; (d)Motion compensation results in Figure b; (e)Difference Results of Figures a and d; (f) The result of edge zeroing in Figure e; (g)Relative motion features; (h)Target detection results

    图  10   场景四检测结果。(a)场景四单帧图像;(b)图a前10帧红外图像;(c)图a和图b的差分结果;(d)图b运动补偿结果;(e) 图a与图d差分结果;(f)图e边缘置零结果;(g)相对运动特征图;(h)目标检测结果

    Figure  10.   Detection results of scenario four. (a)Single frame image in scene four; (b)The first ten infrared images of Figure a; (c)The difference results of Figures a and b; (d)Motion compensation results in Figure b; (e)Difference Results of Figures a and d; (f) The result of edge zeroing in Figure e; (g)Relative motion features; (h)Target detection results

    图  11   五种算法在4种测试场景中的目标检测结果。(a)场景一;(b)场景二;(c)场景三;(d)场景四;(e)-(h)算法MPCM在4种测试场景中的目标检测结果;(i)-(l)算法RLCM在4种测试场景中的目标检测结果;(m)-(p)算法RCCF-TIR在4种测试场景中的目标检测结果;(q)-(t)算法GF-KCF在4种测试场景中的目标检测结果;(u)-(x)算法KCF-FF在4种测试场景中的目标检测结果

    Figure  11.   Target detection results of five algorithms in four test scenarios. (a) Scene one; (b) Scene two; (c) Scene three; (d) Scene four; (e)-(h)Target detection results of MPCM algorithm in four test scenarios; (i)-(l)Target detection results of RLCM algorithm in four test scenarios; (m)-(p)Target detection results of RCCF-TIR algorithm in four test scenarios; (q)-(t)Target detection results of GF-KCF algorithm in four test scenarios; (u)-(x)Target detection results of KCF-FF algorithm in four test scenarios

    图  12   各算法在4种测试场景上的ROC曲线。(a)五种算法在场景一上的ROC曲线;(b) 五种算法在场景二上的ROC曲线;(c) 五种算法在场景三上的ROC曲线;(d) 五种算法在场景四上的ROC曲线

    Figure  12.   ROC curve of each algorithm under four testing scenarios. (a) ROC curves of five algorithms on scenario one; (b) ROC curves of five algorithms on scenario two; (c) ROC curves of five algorithms on scenario three; (d) ROC curves of five algorithms on scenario four

    表  1   各算法在4种测试场景下AUC值

    Table  1   AUC value of each algorithm under four testing scenarios

    Algorithm Test scenario
    Scene One Scene Two Scene Three Scene Four
    MPCM 0.9252417 0.9878632 0.9964728 0.9397536
    RLCM 0.9933118 0.9945269 0.9982756 0.9528677
    RCCF-TIR 0.9961529 0.9953715 0.9989752 0.9874292
    GF-KCF 0.9982573 0.9979236 0.9990135 0.9946382
    KCF-FF 0.9999892 0.9997392 0.9999948 0.9986514
    下载: 导出CSV

    表  2   各算法在4种测试场景下运行时间

    Table  2   The running time of each algorithm under four testing scenarios

    Algorithm Test scenario
    Scene One Scene Two Scene Three Scene Four
    MPCM 0.038 0.036 0.028 0.043
    RLCM 4.082 4.017 3.825 4.263
    RCCF-TIR 0.052 0.049 0.035 0.059
    GF-KCF 0.019 0.018 0.011 0.022
    KCF-FF 0.025 0.024 0.017 0.031
    下载: 导出CSV
  • [1]

    CHENG Y H, WANG J. A motion image detection method based on the inter-frame difference method[J]. Applied Mechanics & Materials, 2014, 490: 1283-1286.

    [2]

    HE L, GE L. CamShift target tracking based on the combination of inter-frame difference and background difference[C]//2018 37th Chinese Control Conference(CCC). IEEE, 2018: 9461-9465.

    [3]

    Novikov A, Reyes-Pérez P. Optimal multistage sequential hypothesis testing[J]. Journal of Statistical Planning and Inference, 2020, 205: 219-230. DOI: 10.1016/j.jspi.2019.07.005

    [4]

    Shamsadin Nejad A, Zaimbashi A. Multistage target detector based on M-ary hypothesis testing approach in multi-channel passive bistatic radars to improve target range resolution[J]. Tabriz Journal of Electrical Engineering, 2019, 49(3): 1141-1152.

    [5]

    FAN X, XU Z, ZHANG J, et al. Infrared dim and small targets detection method based on local energy center of sequential image[J]. Mathematical Problems in Engineering, 2017, 2017: 4572147.

    [6]

    CHEN H, ZHANG H, YANG Y, et al. Small target detection based on infrared image adaptive[J]. International Journal on Smart Sensing & Intelligent Systems, 2015, 8(1): 497-515.

    [7]

    REN X, WANG J, MA T, et al. Infrared dim and small target detection based on three-dimensional collaborative filtering and spatial inversion modeling[J]. Infrared Physics & Technology, 2019, 101: 13-24.

    [8]

    LIU X, ZUO Z. A dim small infrared moving target detection algorithm based on improved three-dimensional directional filtering[C]//Chinese Conference on Image and Graphics Technologies. Springer, Berlin, Heidelberg, 2013: 102-108.

    [9]

    DU P, Hamdulla A. Infrared moving small-target detection using spatial-temporal local difference measure[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 17(10): 1817-1821.

    [10]

    DENG L, ZHANG J, ZHU H. Infrared moving point target detection using a spatial-temporal filter[J]. Infrared Physics & Technology, 2018, 95: 122-127.

    [11]

    ZHAO B, XIAO S, LU H, et al. Spatial-temporal local contrast for moving point target detection in space-based infrared imaging system[J]. Infrared Physics & Technology, 2018, 95: 53-60.

    [12]

    DENG L, ZHU H, TAO C, et al. Infrared moving point target detection based on spatial-temporal local contrast filter[J]. Infrared Physics & Technology, 2016, 76: 168-173.

    [13]

    CHO J, JUNG Y, KIM D S, et al. Moving object detection based on optical flow estimation and a Gaussian mixture model for advanced driver assistance systems[J]. Sensors, 2019, 19(14): 3217-3231. DOI: 10.3390/s19143217

    [14]

    ZHANG Y, ZHENG J, ZHANG C, et al. An effective motion object detection method using optical flow estimation under a moving camera[J]. Journal of Visual Communication and Image Representation, 2018, 55: 215-228. DOI: 10.1016/j.jvcir.2018.06.006

    [15]

    JIAN Q, QIAN C, Wei-Xian Q. A detection algorithm for dim and small infrared target based on the optical flow estimation and the adaptive background suppression[J]. Acta Photonica Sinica, 2011, 40(3): 476-482. DOI: 10.3788/gzxb20114003.0476

    [16]

    Shin J, Kim H, Kim D, et al. Fast and robust object tracking using tracking failure detection in kernelized correlation filter[J]. Applied Sciences, 2020, 10(2): 713-727. DOI: 10.3390/app10020713

    [17]

    YU T, MO B, LIU F, et al. Robust thermal infrared object tracking with continuous correlation filters and adaptive feature fusion[J]. Infrared Physics & Technology, 2019, 98: 69-81.

    [18]

    Uzkent B, Rangnekar A, Hoffman M J. Tracking in aerial hyperspectral videos using deep kernelized correlation filters[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 57(1): 449-461.

    [19]

    YUAN D, ZHANG X, LIU J, et al. A multiple feature fused model for visual object tracking via correlation filters[J]. Multimedia Tools and Applications, 2019, 78(19): 27271-27290. DOI: 10.1007/s11042-019-07828-2

    [20]

    MENG Y, MA C, AN W. Infrared object tracking method based on kernel correlation filters[C]//Journal of Physics: Conference Series, 2021, 2035(1): 012038.

    [21]

    YANG X, LI S, YU J, et al. GF-KCF: Aerial infrared target tracking algorithm based on kernel correlation filters under complex interference environment[J]. Infrared Physics & Technology, 2021, 119: 103958.

    [22]

    Hsieh T H, CHOU C L, LAN Y P, et al. Fast and robust infrared image small target detection based on the convolution of layered gradient Kernel[J]. IEEE Access, 2021, 9: 94889-94900. DOI: 10.1109/ACCESS.2021.3089376

    [23]

    LI Y, ZHANG Y. Robust infrared small target detection using local steering kernel reconstruction[J]. Pattern Recognition, 2018, 77: 113-125. DOI: 10.1016/j.patcog.2017.12.012

    [24]

    Henriques J F, Rui C, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(3): 583-596.

    [25] 杜文汉, 李东兴, 王倩楠, 等. 融合改进帧差和边缘提取算法的运动目标检测[J]. 科学技术与工程, 2022, 22(5): 1944-1949. https://www.cnki.com.cn/Article/CJFDTOTAL-KXJS202205026.htm

    DU W H, LI D X, WANG Q N, et al. Moving target detection based on improved frame difference and edge extraction algorithm[J]. Science Technology and Engineering, 2022, 22(5): 1944-1949. https://www.cnki.com.cn/Article/CJFDTOTAL-KXJS202205026.htm

    [26]

    LIU S, LIU D, Srivastava G, et al. Overview and methods of correlation filter algorithms in object tracking[J]. Complex & Intelligent Systems, 2020(3): 1895-1917.

    [27]

    WEI Y, YOU X, LI H. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recognition, 2016, 58: 216-226. DOI: 10.1016/j.patcog.2016.04.002

    [28]

    HAN J, LIANG K, ZHOU B, et al. Infrared small target detection utilizing the multiscale relative local contrast measure[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 612-616. DOI: 10.1109/LGRS.2018.2790909

    [29]

    YU T, MO B, LIU F, et al. Robust thermal infrared object tracking with continuous correlation filters and adaptive feature fusion[J]. Infrared Physics & Technology, 2019, 98: 69-81.

  • 期刊类型引用(1)

    1. 姚雪峰,高毅,龙兵,于晨阳,李文昊,于宏柱,张靖,李晓天. 数字微镜器件(DMD)杂散光特性测试方法及装置. 中国光学. 2022(02): 339-347 . 百度学术

    其他类型引用(0)

图(12)  /  表(2)
计量
  • 文章访问数:  129
  • HTML全文浏览量:  49
  • PDF下载量:  41
  • 被引次数: 1
出版历程
  • 收稿日期:  2022-03-01
  • 修回日期:  2022-05-18
  • 刊出日期:  2023-07-19

目录

/

返回文章
返回