Adaptive Detection and Tracking Algorithm for Infrared Target Size Variation
-
摘要: 在实际场景中随着红外探测距离的缩小,红外弱小目标的尺寸等会动态增长,常用的红外弱小目标检测跟踪算法便无法继续稳定检测与跟踪。为解决上述问题,本文提出了一种自适应红外目标尺寸变化的检测跟踪方法,借助低阈值信噪比实现弱小目标的初筛,并通过自适应尺寸分割避免大目标漏检误检,构建备选目标库,最后配合使用卡尔曼算法模型预测运动轨迹,完成小范围波门检测,实现目标跟踪。与传统DBT(Detection Before Track)跟踪检测算法相比,本文算法可同时兼顾弱小目标和大尺寸目标的检测跟踪,在所选目标尺寸动态增长的场景中,本文算法的检测跟踪率提升了约10%。Abstract: In an actual scenario, as the detection distance decreases, the size of the infrared weak and small targets increases dynamically. Commonly used infrared weak and small target detection and tracking algorithms cannot continue to detect and track stably. To address these problems, we propose an adaptive infrared target size change detection and tracking method. The initial screening of weak and small targets is realized with the help of a low threshold signal-to-noise ratio and circumvents the missed detection and false detection of large targets via adaptive size segmentation. Subsequently, we built an alternative target library. Finally, the Kalman algorithm model was adopted to predict the motion trajectory, complete the small-scale wave-gate detection, and realize target tracking. Compared with the DBT conventional detection and tracking algorithm, our method considers the detection and tracking of weak and small targets and large-sized targets simultaneously. In the selected scene, where the target size dynamically increases, the detection and tracking rate of the algorithm in this study is improved by approximately 10%.
-
Keywords:
- Kalman /
- size change /
- detection and tracking
-
0. 引言
由于硬件设备的理论和技术限制,在单个传感器或单个拍摄设置下拍摄的图像不能有效、全面地描述成像场景。图像融合能够将不同源图像中有意义的信息组合起来生成一幅包含更丰富的信息,更有利于后续应用的图像[1]。由于融合图像具有优良的特性,图像融合作为一种图像增强方法在摄影可视化、目标跟踪[2]、医学诊断[3]、遥感监测等领域得到广泛应用。
在深度学习的普及之前,图像融合就已经得到了深入的研究。早期实现图像融合的方法主要采用相关的数学变换来对图像进行分解,并根据特定的融合规则进行融合。典型的传统融合方法包括基于多尺度变换的方法、基于稀疏表示的方法、基于子空间的方法、基于显著性的方法等。然而,这些方法的局限性也变得越来越明显。一方面,为了保证后续特征融合的可行性,传统的方法被迫对不同的源图像采用相同的变换来提取特征。但是,该操作没有考虑到源图像的特征差异,这可能会导致所提取的特征的表达性较差。另一方面,传统的特征融合策略过于粗糙,使得融合性能非常有限。将深度学习引入图像融合就是为了克服传统方法的这些局限性。在基于深度学习的方法中,主要有基于自动编码器的框架、基于卷积神经网络的框架和基于生成对抗网络的框架3种主体框架。
虽然最近的基于深度学习的图像融合算法可以在相应的融合任务中能够取得更好的效果,但仍存在一些影响图像融合性能的缺陷。一方面,现有的融合算法倾向于追求更好的视觉质量和更高的评价指标,但很少系统地考虑融合后图像是否可以满足高级的视觉任务需求。研究表明,仅考虑视觉质量和定量指标并不能帮助用于高级视觉任务。虽然有些研究通过分割图像掩模指导图像融合过程,但该掩模只分割了部分显著目标,在增强语义信息方面效果有限。其次,在现有的融合方法中,大多只使用一个特征提取层的输出作为图像融合组件。这种架构直接造成了源图像中的信息丢失,无法更好地提取特征细节,直接影响了最终的融合性能。第三,现有的融合方法由于计算复杂度和参数量大,在运行时间和存储空间方面通常缺乏竞争力。
为了克服上述挑战,本文提出了一种基于语义损失引导的融合网络,来执行红外和可见光图像融合任务。该方法在保证图像融合质量的前提下同时兼顾了高级视觉任务,融合后图像满足高级视觉任务需求。具体来说,引入图像分割网络[4](Fast Semantic Segmentation Network,Fast-SCNN)来对融合图像进行分割,分割结果与label图构成语义损失,融合网络在语义损失和内容损失的共同指导下,生成融合图像。此外,本文还设计了一种新的特征提取模块,通过残差密集连接实现特征重用,提高细节描述能力,同时以进一步减轻融合框架,从而提高图像融合的时间效率。
1. 本文融合算法
1.1 整体框架
给定一对预配准完成的红外图像和可见光图像,在损失函数的引导下,通过特征提取、集成和重建实现图像融合。融合后图像的质量在很大程度上取决于损失函数。为了提升融合性能,本文设计了一个由内容损失和语义损失组成的联合损失函数来约束融合网络,该算法的整体框架如图 1所示。
首先,为了更好地从红外和可见光图像中提取具有丰富细节信息的深度特征,本文设计了一种基于Sobel算子残差密集块的图像融合网络,通过特征重用将源图像中的互补信息充分集成。然后,通过特征集成和图像重建模块对融合后的图像进行重建,融合图像集成了红外和可见光特征,包含了丰富的细节信息。
此外,为了满足高级视觉任务需求,本文引入了语义损失来约束融合网络,使融合后图像包含更丰富的语义信息。该算法使用预训练完成的Fast-SCNN分割模型来对融合后图像进行分割,分割结果与源图像语义标签之间的差异就可以反映融合后图像所包含语义信息的丰富度。
1.2 融合网络
为了轻量化融合网络,更好地提取深度信息,本文提出了一种基于Sobel算子残差密集块的图像融合网络,如图 2所示。该融合网络由特征提取器和图像重建器组成,通过特征提取、集成和图像重建实现图像融合。
如图 2所示,特征提取器包含两个并行的红外和可见光的特征提取流,每个特征提取流包含两个共同的卷积层和两个残差密集块。采用公共卷积层,卷积核大小为3×3,激活函数为漏式校正直流线性单元(LReLU),提取浅层特征。接下来是两个残差密集块,用于提取细节信息。残差密集块的具体设计如图 3所示。每个残差密集块包含3个分支,以提高所提取的特征的多样性,使其能够充分利用模块内每个卷积层所提取的深度特征。每个分支的1×1卷积层产生低维特征映射,用于降低输入特征的维数,从而降低模块中内部特征的卷积计算成本。
然后,通过concat策略将红外图像和可见光图像的细粒度特征进行集成,并将结果输入到图像重构器中,以实现特征聚合和图像重建。图像重构器由3个串联的3×3卷积层和一个1×1卷积层组成。所有3×3卷积层均采用LReLU作为激活函数,1×1卷积层的激活函数为Tanh。为了不造成融合过程中的信息丢失,该网络没有引入降采样,图像边缘填充设置为0,步幅设置为1,融合后图像与源图像大小一致。
1.3 分割网络
分割网络采用预训练完成的快速分割卷积神经网络(Fast-SCNN),该网络在现有的双分支快速分割方法的基础上,引入了“学习降采样”模块,该模块同时计算多个分辨率分支的低水平特征。该网络结合了高分辨率的空间细节和低分辨率提取的深度特征,在Cityscapes数据集[5]上分割速度可以达到123.5帧,准确率为68.0%。
1.4 损失函数
本文融合网络旨在加强融合图像中的语义信息,同时提高视觉质量和评价指标。为了实现这些目标,本文从两个角度设计了损失函数,对融合网络进行约束。一方面,融合网络需要充分整合源图像中的互补信息,如红外图像中的突出目标和可见光图像中的纹理细节。为此,本文设计内容损失来提升融合图像的视觉质量。另一方面,融合后的图像包含更丰富的语义信息,可以有效地促进高级视觉任务。为此,构建了一个语义损失来反映融合图像语义信息丰富程度。
1.4.1 内容损失
内容损失决定了提取的信息类型以及重建中各种类型信息之间的主要和次要关系。为最大限度地减少信息损失,以有效地保存红外图像的热辐射信息和可见图像的纹理细节信息。内容损失由两部分组成,定义如下:
$$ L_\mathrm{content}=aL_\mathrm{structure}+L_\mathrm{intensity} $$ (1) 式中:Lstructure项表示两幅图像的结构相似性,保证融合图像包含丰富的纹理细节;Lintensity约束融合的图像,以保持与源图像相似的强度分布;a为权衡结构损失和强度损失的正参数。
强度损失在像素水平上测量融合图像和源图像之间的差异。因此,将红外图像和可见光图像的强度损失定义为:
$$ {L_{{\text{intensity}}}} = \frac{{\delta \cdot \left\| {{I_{\text{f}}} - {I_{\text{r}}}} \right\|_{\text{F}}^2 + \left( {1 - \delta } \right)\left\| {{I_{\text{f}}} - {I_{\text{v}}}} \right\|_{\text{F}}^2}}{{H \cdot W}} $$ (2) 式中:If为融合图像;Ir,Iv分别为红外图像和可见光图像;H和W分别表示输入图像的高度和宽度;||⋅||F代表矩阵弗罗贝尼乌斯范数;δ是一个控制两项之间的权衡的正参数。
在像素级上,结构相似度[6](Structural Similarity Index Measure, SSIM)指数度量是最流行和最有效的度量方法,它根据亮度、对比度和结构信息的相似性来模拟失真。因此,我们选择它来约束输入图和输出图像之间的结构相似性。Lstructure定义如下:
$$ {L_{{\text{structure}}}} = \frac{{\lambda \cdot \left( {1 - {\text{SSIM}}\left( {{I_{\text{f}}},{I_{\text{r}}}} \right)} \right) + \left( {1 - \lambda } \right)\left( {1 - {\text{SSIM}}\left( {{I_{\text{f}}},{I_{\text{v}}}} \right)} \right)}}{{H \cdot W}} $$ (3) 式中:SSIM(Ix, Iy)表示Ix和Iy之间的结构相似性;λ为控制两项之间的权衡的正参数。
1.4.2 语义损失
为了更好地提高融合图像中的语义信息,本文设计了一个语义损失来约束融合网络。该算法使用预训练好的Fast-SCNN分割模型来对融合后图像进行分割,分割网络输出分割结果Is。通过计算分割结果与Label图之间交叉熵可得到语义损失定义如下:
$$ {L_{{\text{semantic}}}} = - \sum\limits_{h = 1}^H {\sum\limits_{w = 1}^W {{y_{\text{c}}}\log \left( {{I_{\text{s}}}} \right)} } $$ (4) 式中:yc为分割标签进行one-hot编码转换而来。
最后,构造一个联合损失来引导融合网络的训练,该联合损失定义为:
$$ L=L_\mathrm{content}+βL_\mathrm{semantic} $$ (5) 式中:β是一个表征语义损失Lsemantic重要性的常数。β越大,损失函数中语义损失所占比重越大,融合后图像语义信息更加接近源图像。
1.5 训练细节
本文使用MFNet数据集[7]来训练融合网络,MFNet数据集包含1569对图像对(820张在白天拍摄,749张在夜间拍摄),空间分辨率为480×640。MFNet数据集为8个对象提供了语义标签,即汽车、人、自行车、曲线、汽车停车站、护栏、警戒锥和凸起。为增强数据可信度,所有的数据集图像在被输入网络之前都被归一化到[0, 1]范围内。
训练中的所有参数设置如下:内容损失超参数α=10,语义损失权重参数β=3。该算法使用Adam优化器,bathsize大小为8,epoch大小为10,初始学习率0.001,平滑参数β1=0.9,β2=0.99,ε=1e-8,权重衰减为0.0002,在损失函数的指导下优化我们的融合模型。该算法在PyTorch平台[8]上实现。
由于MFNet数据集包含三通道彩色可见光图像,为更好地处理彩色图像,本文首先将可见图像转换为YCbCr颜色空间。然后,利用不同的融合算法来融合可见光图像和红外图像的Y通道。最后,利用可见光图像的Cb和Cr通道将融合后的图像转换为RGB颜色空间[9]。
2. 实验与分析
为了全面评估所提出的算法,我们在MFNet数据集上进行了广泛的定性和定量实验。我们选择3种较为先进的融合算法,即DDcGAN[10](Dual-Discriminator Conditional Generative Adversarial Network),Nestfuse[11],GANMcM[12](Generative Adversarial Network with Multiclassification Constraints)与本文算法在主观和客观两个方面对融合结果进行比较,然后再对其融合图像分割性能进行对比。所有这3种方法的实现都是公开的,参数均按照原论文中默认参数设置。
2.1 主观评价
主观评价方法以人体视觉系统为基础,对融合图像的质量进行评价,根据图像细节、物体完整性、图像失真等标准一致地比较不同的融合方法,在融合质量评价过程中能够更直接,更可靠。本文从MFNet数据集中随机挑选3张分别为白天、黑夜和黄昏的图片进行实验,实验对比结果如图 4,5,6。
在日间场景中,可以利用红外图像的热辐射信息作为可见光图像的补充信息。因此,具有良好视觉质量的融合图像应包含丰富的可见光图像的纹理细节,并增强红外图像中的突出目标。从实验结果可以看出DDcGAN和GANMcM算法并没有有效保留可见光的亮度信息,导致融合后图像偏暗,Nestfuse算法虽然保留了可见光图像中的亮度信息,但没有更好地保留红外图像中的热辐射信息,融合后图像目标显著性不强。
在夜间场景中,由于环境限制,红外和可见光图像都只能提供有限的场景信息。因此,能否自适应地整合红外和可见光图像中可用信息将成为评判融合算法的标准之一。实验结果可以看出,所有算法都在一定程度上合并了红外和可见光图像中的互补信息,但不同算法的融合结果仍有一些细微的差异。DDcGAN算法虽然保留了目标的热辐射信息,但目标轮廓不明显。GANMcM算法在背景中丢失了部分纹理信息,在融合后图像中引入了一些无用信息。实验表明,本文算法能够更好地融合红外和可见光图像中的有用信息,具有良好的视觉效果,从融合后图像的背景中可以看出,本文算法较其它算法能够更好地提取纹理细节,并避免受到无用信息的干扰。
2.2 客观评价
由于主观评价方法存在人工干预、时间消耗较长、成本高、不可重复性等缺点,为保证评价的全面性和可信度,需要同时使用能够定量、自动度量融合图像质量的客观评价方法。本文采用了4种具有代表性的图像质量评价指标,分别为熵(Entropy,EN)、互信息(Mutual Information,MI)、标准差(Standard Deviation,SD)、空间频率(Spatial Frequency,SF)和边缘相似度(QAB/F)。
1)熵
熵表示在融合图像中所包含的信息量,定义如下:
$$ {\text{EN}} = - \sum\limits_{l = 0}^{L - 1} {{p_l}{{\log }_2}{p_l}} $$ (6) 2)互信息
互信息度量通过测量两幅图像间依赖性,度量从源图像传输到融合图像的信息量,定义如下:
$$ \mathrm{MI}=\mathrm{MI}_{\mathrm{A}, \mathrm{F}}+\mathrm{MI}_{\mathrm{B}, \mathrm{F}} $$ (7) 式中:MIA, F和MIB, F分别表示从红外图像和可见光图像传输到融合图像的信息量,定义如下:
$$ {\text{M}}{{\text{I}}_{X,F}} = \sum\nolimits_{x,f} {{p_{X,F}}\left( {x,f} \right)} \mathrm{log}\frac{{{p_{X,F}}\left( {x,f} \right)}}{{{p_X}\left( x \right){p_F}\left( f \right)}} $$ (8) 3)空间频率
空间频率表示了图像的纹理信息,数学表达式如下:
$$ {\text{SF = }}\sqrt {{\text{R}}{{\text{F}}^2} + {\text{C}}{{\text{F}}^2}} $$ (9) 4)标准差
标准差反映了图像的对比度特性,数学定义如下:
$$ {\text{SD}} = \sqrt {\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {{{\left[ {F\left( {i,j} \right) - \mu } \right]}^2}} } } $$ (10) 5)边缘相似度
边缘相似度(QAB/F)测量从源图像传输到融合图像的边缘信息的量,定义如下:
$$ {Q^{{\text{AB/F}}}} = \frac{{\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^M {{Q^{{\text{AF}}}}\left( {i,j} \right){w^{\text{A}}}\left( {i,j} \right)} } + {Q^{{\text{BF}}}}\left( {i,j} \right){w^{\text{B}}}\left( {i,j} \right)}}{{\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^M {\left[ {{w^{\text{A}}}\left( {i,j} \right) + {w^{\text{B}}}\left( {i,j} \right)} \right]} } }} $$ (11) 为保证实验可靠性,本文在MFNet数据集中随机挑选20张图片进行实验,获取20张图片性能指标的平均值,实验数据如表 1,其中加粗的值表示所有方法中的性能最佳的方法。从表中可以看出,本文算法在4个评价指标EN、SF、QAB/F和MI值上的表现最佳。虽然该算法的SD不是最大的,但结果与其他算法相差不大。实验结果表明,本文算法在图像融合评价指标上优于其它算法。
表 1 图像融合客观指标结果Table 1. Objective index results of fusion imageMI SD SF EN QAB/F DDcGAN 1.9848 6.2586 0.0231 5.2684 0.1859 Nestfuse 2.9764 7.5843 0.0301 6.2386 0.4862 GANMcM 2.5130 8.2627 0.0236 6.1895 0.3238 Ours 3.8672 7.9858 0.0458 6.5841 0.5842 2.3 分割性能评价
为了验证融合图像的语义分割性能,本文选取MFNet数据集中20张图片经过不同融合算法生成融合图片,然后将融合后图片进行语义分割后获取mIoU(Mean Intersection Over Union)值来衡量分割性能,实验结果如表 2。实验结果显示,本文算法相较于其它算法有更高的mIoU,这表明本文算法生成的融合图像中包含了丰富的语义信息,使分割网络能够更准确地描述成像场景。
表 2 融合图像分割性能指标(mIoU)Table 2. mIoU of fusion imageDDcGAN Nestfuse GANMcM Ours mIoU 75.33 76.32 75.68 77.98 此外,我们还提供了一些可视化的例子来显示红外、可见光和不同融合图像的分割结果,如图 7。从结果中可以看出,红外图像提供了更多关于行人等突出目标的信息,而可见图像可以更好地描述背景。本文融合算法可以集成来自源图像的互补信息,并实现一个更全面的对成像场景的描述。
3. 结论
本文提出了一种基于语义损失的红外与可见光图像融合算法,引入语义损失,使融合网络在语义损失和内容损失的共同引导下,生成富含语义信息的高质量图像,融合图像满足高级视觉任务需求。同时,本文设计了一种新的特征提取模块,通过残差密集连接实现特征重用,提高细节描述能力,实现了显著的目标强度和纹理细节的有效保留。通过比较和泛化实验表明,本文融合算法在主观和定量指标方面都优于其它先进算法,且相较于其它算法融合后图像语义信息含量最高。
-
表 1 不同距离成像像素
Table 1 Imaging pixels at different distances
Distance/km Imaging pixel dimensions Pixel growth 5 1.76×1.76 - 4.5 1.94×1.94 0.18 4 2.22×2.22 0.28 3.5 2.51×2.51 0.29 3 2.93×2.93 0.42 2.5 3.52×3.52 0.59 2 4.4×4.4 0.88 1.5 5.9×5.9 1.5 1 8.8×8.8 2.1 0.5 17.5×17.5 8.7 表 2 不同尺寸定义下对应检测波门的实验结果
Table 2 Experimental results of corresponding detection gates under different size definitions
Gate size/1 Complex and cloudy background Top view background of sea surface Sea antenna background Detection tracking rate/% Undetected rate/% False alarm rate/% Frame rate/Hz Detection tracking rate/% Undetected rate/% False alarm rate/% Frame rate/Hz Detection tracking rate/% Undetected rate/% False alarm rate/% Frame rate/Hz 3×3 98 2 7.4 55 90 10 7 51 91.8 8.2 5 56 5×5 98.5 1.5 7 50 94.1 5.9 2 48 93.5 6.5 3 52 8×8 98 2 6 44 95 5 5 43 92 8 3.2 46 12×12 94.4 5.6 15 31 91.2 8.8 12 29 88.6 11.4 4 31 表 3 不同背景红外数据集下算法表现
Table 3 Algorithm performance under different background infrared data sets
Infrared image Low SNR target detection algorithm Our algorithm Detection tracking rate/% Undetected rate/% False alarm rate/% Frame rate/Hz Detection tracking rate/% Undetected rate/% False alarm rate/% Frame rate/Hz Complex and cloudy background 98 2 8 45 98.5 1.5 7 50 Top view background of sea surface 85.8 14.2 3 42 94.1 5.9 2 48 Seaantenna background 82.9 17.1 5 46 93.5 6.5 3 52 -
[1] BAI Xiangzhi, ZHANG Shan, DU Binbin, et al. Survey on dim small target detection in clutter background: wavelet, inter-frame and filter based algorithms[J]. Procedia Engineering, 2011, 15: 479-483. DOI: 10.1016/j.proeng.2011.08.091
[2] MING Z, LI J, ZHANG P. The design of Top-Hat morphological filter and application to infrared target detection[J]. Infrared Physics & Technology, 2006, 48(1): 67-76.
[3] FAN Q, YANG Y, ZOU E B. A novel infrared target detection and tracking method[C]// Seventh Symposium on Novel Photoelectronic Detection Technology and Application, 2020: 117631L.
[4] 王莹莹, 张永顺, 华永伟. 红外目标检测方法分析[J]. 红外技术, 2011, 33(3): 133-140. DOI: 10.3969/j.issn.1001-8891.2011.03.002 WANG Y Y, ZHANG Y S, HUA Y W. Analysis on infrared target detection methods[J]. Infrared Technology, 2011, 33(3): 133-140. DOI: 10.3969/j.issn.1001-8891.2011.03.002
[5] 王翔. 一种复杂海空背景下的红外小目标检测跟踪算法[J]. 光学与光电技术, 2022, 20(2): 113-119. https://www.cnki.com.cn/Article/CJFDTOTAL-GXGD202202014.htm WANG X. A detection and tracking algorithm for infrared small target in complex sea sky background[J]. Optics & Optoelectronic Technology, 2022, 20(2): 113-119. https://www.cnki.com.cn/Article/CJFDTOTAL-GXGD202202014.htm
[6] ZHAO T, WANG T, CAO Y, et al. Infrared dim and small target detection and tracking based on single multi-frame algorithm under sea clutter background[C]// 2019 Chinese Control Conference (CCC), 2019: 402-407.
[7] 郭伟, 赵亦工, 谢振华. 一种改进的红外图像归一化互相关匹配算法[J]. 光子学报, 2009, 38(1): 189-193. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB200901040.htm GUO W, ZHAO Y G, XIE Z H. An Improved normalized cross-correlation for template matching of infrared image[J]. Acta Photonica Sinica, 2009, 38(1): 189-193. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB200901040.htm
[8] 张晋, 王元余, 林丹丹, 等. 基于相关滤波的红外目标跟踪抗遮挡处理[J]. 红外技术, 2022, 44(3): 277-285. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202203015.htm ZHANG J, WANG Y Y, LIN D D, et al. Anti-occlusion process of infrared target tracking based on correlation filters[J]. Infrared Technology, 2022, 44(3): 277-285. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202203015.htm
[9] 王曙光, 石胜斌, 胡春生. 一种对空红外弱小目标检测跟踪方法研究[J]. 红外技术, 2020, 42(4): 356-360. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202004008.htm WANG Y G, SHI S B, HU C S. Detection and tracking method for infrared dim small targets in air[J]. Infrared Technology, 2020, 42(4): 356-360. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202004008.htm
[10] 杨昳, 徐长彬, 马玉莹, 等. 低信噪比下的红外弱小目标检测算法研究综述[J]. 激光与红外, 2019, 49(6): 643-649. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201906002.htm YANG Y, XU C B, MA Y Y, et al. A review of infrared dim small target detection algorithms with low SNR[J]. Laser & Infrared, 2019, 49(6): 643-649. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201906002.htm
[11] 宋敏敏, 王爽, 吕弢, 等. 一种天地复杂背景下的红外弱小目标检测方法[J]. 红外技术, 2018, 40(10): 996-1001. http://hwjs.nvir.cn/article/id/hwjs201810011 SONG M M, WANG S, LYU T, et al. A method for infrared dim target detection in complex scenes of sky and ground[J]. . Infrared Technology, 2018, 40(10): 996-1001 http://hwjs.nvir.cn/article/id/hwjs201810011
[12] 施元斌, 张晓杰, 王兴. 基于梯度和各向异性扩散的红外双波段目标检测方法[J]. 空天防御, 2021, 4(4): 95-100. https://www.cnki.com.cn/Article/CJFDTOTAL-KTFY202104014.htm SHI Y B, ZHANG X J, WANG X. Infrared dual-band target detection method based on gradient and anisotropic diffusion[J]. Air & Space Defense, 2021, 4(4): 95-100. https://www.cnki.com.cn/Article/CJFDTOTAL-KTFY202104014.htm
[13] LI Z M, MEI L F, SONG M. A survey on infrared weak small target detection method[J]. Advanced Materials Research, 2014, 945-949: 1558-1560.
[14] 施天俊, 鲍广震, 王福海, 等. 一种适用于多场景的红外弱小目标检测跟踪算法[J]. 航空兵器, 2019, 26(6): 35-42. https://www.cnki.com.cn/Article/CJFDTOTAL-HKBQ201906007.htm SHI T J, BAO G Z, WANG F H, et al. An infrared small target detection and tracking algorithm applying for multiple scenarios[J]. Aero Weaponry, 2019, 26(6): 35-42. https://www.cnki.com.cn/Article/CJFDTOTAL-HKBQ201906007.htm
[15] 李静. 基于区域生长和背景配准的低信噪比红外目标检测算法[J]. 红外技术, 2014, 36(11): 909-913. http://hwjs.nvir.cn/article/id/hwjs201411011 LI J. Detection method of moving infrared target integrating based on region growing and background[J]. Infrared Technology, 2014, 36(11): 909-913. http://hwjs.nvir.cn/article/id/hwjs201411011
-
期刊类型引用(1)
1. 江滔,马泳,黄珺,王贺松,樊凡. 基于赋权连接图的增量式运动恢复结构算法. 应用光学. 2022(05): 921-928+1014 . 百度学术
其他类型引用(1)