Infrared Vehicle Target Detection Based on Convolutional Neural Network without Pre-training
-
摘要: 为解决基于卷积神经网络的目标检测算法对预训练权重的过度依赖,特别是数据稀缺条件下的红外场景目标检测,提出了融入注意力模块来缓解不进行预训练所带来的检测性能下降的方法。本文基于YOLO v3算法,在网络结构中融入模仿人类注意力机制的SE和CBAM模块,对提取的特征进行通道层面和空间层面的重标定。根据特征的重要程度,自适应地赋予不同权重,最终提升检测精度。在构建的红外车辆目标数据集上,注意力模块能够显著提升无预训练卷积神经网络的检测精度,融入了CBAM模块的网络检测精度为86.3 mAP。实验结果证明了注意力模块能够提升网络的特征提取能力,使网络摆脱对预训练权重的过度依赖。Abstract: To tackle the over-dependence of convolutional neural network-based target detection algorithms on pre-training weights, especially for target detection of infrared scenarios under data-sparse conditions, the incorporation of attention modules is proposed to alleviate the degradation of detection performance owing to the absence of pre-training. This paper is based on the YOLO v3 algorithm, which incorporates SE and CBAM modules in a network that mimics human attentional mechanisms to recalibrate the extracted features at the channel and spatial levels. Different weights are adaptively assigned to the features according to their importance, which ultimately improves the detection accuracy. On the constructed infrared vehicle target dataset, the attention module significantly improved the detection accuracy of the non-pre-trained convolutional neural network. Furthermore, the detection accuracy of the network incorporating the CBAM module was 86.3 mAP, demonstrating that the attention module can improve the feature extraction ability of the network and free the network from over-reliance on the pretrained weights.
-
Keywords:
- target detection /
- infrared target /
- deep learning /
- convolutional neural network
-
0. 引言
通过卷积层、池化层、激活函数等模块层层堆叠的结构设计,卷积神经网络具有强大的特征提取和拟合能力,为计算机视觉领域带来了翻天覆地的变化,已经在图像分类、目标检测、实例分割等任务上取得了优异成绩。目标检测需要在图像中确定目标的位置和类别,对应着定位和分类两个子任务。传统方法将多种算法应用于检测任务的不同阶段,如阈值分割[1]用于目标定位、梯度直方图特征[2]用于目标特性描述、支持向量机[3]用于特征分类。不同于传统的处理思路,深度学习方法采用了一体化设计的卷积神经网络,克服了手工设计特征难度大且适用范围窄的缺陷,实现了图像输入和检测结果输出的端到端式处理流程,相较于传统方法,检测效果有着显著提升,已经成为当前的主流研究方向。根据网络设计思路的不同,基于卷积神经网络的目标检测算法可分为双阶段和单阶段两类,包括Faster RCNN[4]、Thunder Net[5]、YOLO[6]、Center Net[7]等。
双阶段算法也被称为基于分类的检测,Faster RCNN[4]首先通过区域建议网络在图像上获取目标所在区域的建议,然后根据这些建议区域的特征进行分类和位置优化。Thunder Net[5]作为面向移动端的实时检测网络,采用轻量化的网络设计,是第一个基于ARM平台的实时检测算法。文献[8]利用数据挖掘的方法从生成的anchor中筛选出难样本(Hard negative),设计了用于检测航拍图像中车辆的卷积神经网络。单阶段算法也被称为基于回归的检测。以YOLO[6]算法为例,整体网络由骨架网络和YOLO网络两部分构成,前者用于提取图像的特征,后者根据特征实现对目标位置、类别和置信度的预测,单阶段算法计算量少,检测速度快。Center Net[7]对于目标的检测不再基于anchor,而是基于中心点,有效提高了目标遮挡时的检测效果。
深度学习方法需要大量的图像和标注用于训练,训练数据的不足容易导致过拟合,通常会使用Image Net[9]、MSCOCO[10]等大规模数据集预训练的权重进行网络的初始化,再在此基础上用实验数据进行训练。在进行红外目标检测时,样本获取的成本高、难度大,少量的实验样本难以支撑网络的从头训练,需要借助预训练权重来初始化网络。但在红外领域并没有公开的大规模数据集,因此不得不选择可见光图像预训练的权重。然而网络结构与权重是一一对应的,一旦结构发生改变,原本的权重就不再适用,而重新训练来获取预训练权重的代价往往十分昂贵,需要消耗大量的人力物力,也就是说,预训练权重严重制约了卷积神经网络在红外目标检测中的实际应用,为了摆脱这种依赖,本文对无预训练的卷积神经网络展开研究。以红外热像仪拍摄的城市街道场景的车辆为检测目标,基于YOLO v3[11]网络进行实验。在设计网络时,为提升网络的特征提取能力,在网络结构中融入注意力模块,包括SE(squeeze excitation)[12]和CBAM(convolution block attention module)[13],使其能从有限的训练样本中获取更多的有用信息。实验结果表明,改进后网络的检测能力得到大幅提升,结合训练次数的调整,最终实现了对有预训练网络的超越,检测精度可达86.3 mAP。
1. YOLO v3算法原理
YOLO算法将目标检测看作是回归问题,输入图像后,同时得到目标位置和类别的预测,计算量小,处理速度快。改进版本YOLO v3[11]中,加入了anchor机制,并采用残差设计加深骨架网络,根据目标的大小在3个尺度上进行预测,有效提升了对于小目标的检测精度。
网络深度的加深在一定程度上使网络特征提取的能力得到增强,但在梯度反向传播时,过深的网络容易导致梯度弥散,使训练难以进行。YOLO v3在设计骨架网络时借鉴了Res Net[14]的设计思想,在卷积模块的输入和输出之间加入短接(Shortchut)结构,卷积层输出的是期望特征与输入之间的残差,降低了数据拟合的难度,再利用短接结构与输入相加,最终得到期望的特征输出。该骨架网络包含53个卷积层,被称为DarkNet-53。
为了提升对目标位置预测的精度,YOLO v3中加入了anchor机制。事先对训练集中的目标位置信息进行K-Means[15]聚类,即紧密贴合目标的矩形框中心点坐标、宽度和长度,聚类中心作为anchor的默认设置。在YOLO v3中,一共得到9个聚类结果,并根据面积大小分配到3个不同的预测分支。面积较小的anchor负责对小目标的检测,对应于较为浅层的特征输出;面积较大的anchor负责对大目标的检测,对应了深层的特征输出。通过在多个尺度的特征图进行目标检测,大幅提升了小目标检测的精度,补足了原有方法的缺陷。
YOLO将图像划分为s×s个网格,对应骨架网络输出的大小为s×s的特征图,每个网格负责预测3个边界框。网络并不直接预测边界框的位置信息,而是预测边界框与anchor之间的偏移量,具体的对应关系如图 1所示。其中,(tx, ty, tw, th)为网络输出,(cx, cy)为所在网格左上点的坐标,σ(·)为sigmoid函数,(pw, ph)为对应anchor的宽度和高度,(bx, by, bw, bh)为预测的目标位置坐标。
2. 注意力机制
2.1 卷积神经网络中的注意力
在人眼接触某一场景信息时,为了及时准确地做出应对措施,在快速搜索过后,我们的注意力会重点关注场景中的某些区域。在注意力的指导下,后续“资源”会被更高效合理地调度。换句话说,人注意力的分布是不均匀的,并且这种分布会朝着获取更有用信息的方向移动,而这些有用信息会最终服务于人的自然反应或主观意志[12]。
多数基于卷积神经网络的目标检测算法可以看作是一种编码-解码模型,输入一幅图像进行编码,再从中解码出目标的位置和类别信息作为输出。在这一过程中,可以加入注意力机制。通过对编码信息加权处理,模拟人注意力的不均匀分布,偏向性分配可利用的计算资源,从而获得更加有用的编码信息。训练中,权值分布朝着损失函数下降的方向不断移动,网络学习到不同信息的重要程度,直至收敛,最终完成目标检测任务。
目标检测网络中卷积层输出的特征图即为编码信息,除了宽度和高度外,还有深度,一般的网络对于特征图的所有维度均匀对待。SE[12]模块在通道维度上添加了注意力机制,对于不同通道的特征图进行权值重标定,学习不同通道的重要程度,突出重要的特征,抑制无用的特征。CBAM[13]则在通道注意力的基础上,添加了空间注意力,对同一特征图的不同位置进行加权。在注意力模块的帮助下,网络能够提取图像中更具信息量的成分,并最终提升目标检测的精度。
2.2 SE模块
SE[12]模块全称squeeze-and-excitation,包含了压缩(squeeze)和激励(excitation)两步操作,能够有效增强深度网络的性能。传统卷积层输出的特征图是由各通道直接相加得到的,有学者认为这时通道之间的相关性是隐含的,且卷积核的局部感受野导致了对全局信息的忽视。通过SE模块中压缩和激励两步操作,可以提取全局信息,并完成卷积响应的重校准,增强网络对有效特征的敏感度。具体的流程如图 2所示。
图中,Fsq表示压缩,Fex表示激活。对于卷积层输出的特征图U,(C×W×H)分别表示深度、宽度、高度,在空间维度上,利用全局平均池化对每一幅特征图进行压缩,得到维度为(C×1×1)的通道描述符Z,这样可以提供感受野以外的全局信息,该过程可用下式表示:
$$ {Z_{{\rm{avg}}}} = {F_{{\rm{sq}}}}(U) = {\rm{avg}}(U) $$ 在激活过程中,包含了bottleneck结构的两个全连接层和两个激活函数,可由下式表示:
$$S = {F_{{\rm{ex}}}}({Z_{{\rm{avg}}}}) = \sigma [f{c_2}(\delta (f{c_1}({Z_{{\rm{avg}}}}))]$$ (1) 式中:fc1(·)表示维度$C \to \frac{c}{r}$的全连接层;δ(·)表示ReLU激活函数;fc2(·)表示维度$\frac{c}{r} \to C$的全连接层;σ(·)表示sigmoid激活函数,得到的结果S可以认为是不均匀分布的注意力,体现了不同通道的重要程度。通过这些操作,通道之间的相关性被更充分地挖掘出来。最后S与U相乘,完成通道校准。
2.3 CBAM模块
CBAM[13]模块全称convolution block attention module,与SE[12]模块相比,对于卷积层输出的特征图,不仅生成一维的通道注意力,同时生成二维的空间注意力,进一步提升网络对有效特征的提取能力。
通道注意力生成的具体步骤如图 3所示。对于卷积层输出的特征图,在空间维度上,对每一幅特征图进行全局最大池化和平均池化,结果分别输入权值共享的多层感知器,共有3层,进行$C \to \frac{c}{R} \to C$的维度变化,输出结果的各元素相加,经过激活函数后得到最终的通道注意力。整体流程可由下式表示:
$$ {Z_{{\rm{avg}}}} = {\rm{avg}}(U) $$ (2) $$ {Z_{{\rm{max}}}} = {\rm{max}}(U) $$ (3) $$ {S_{\rm{c}}} = \sigma [f{c_2}(\delta (f{c_1}({Z_{{\rm{avg}}}}))] + f{c_2}(\delta (f{c_1}({Z_{{\rm{max}}}})) $$ (4) 式中:avg(·)表示全局平均池化;max(·)表示全局最大池化;fc1(·)表示维度$\frac{c}{r} \to C$的全连接层;δ(·)表示ReLU函数;fc2(·)表示维度$\frac{c}{r} \to C$的全连接层;σ(·)表示sigmoid函数。
空间注意力生成的具体步骤如图 4所示。对于卷积层的输出,在通道维度上进行最大池化和平均池化,得到二维的中间结果,将两者在通道维度上相连,输入卷积层,结果经过损失函数,得到单通道二维的空间注意力。整体流程由下式表示:
$$ {Z_{{\rm{avg}}}} = {\rm{avg}}(U) $$ (5) $$ {Z_{{\rm{max}}}} = {\rm{max}}(U) $$ (6) $$ {S_{\rm{s}}} = \sigma ({\rm{con}}{{\rm{v}}_{2,1,k}}({Z_{{\rm{AVG}}}};{Z_{{\rm{max}}}})) $$ (7) 式中:AVG(·)表示通道维度上的平均池化;MAX(·)表示通道维度上的最大池化;conv2, 1, k(·)表示输入通道为2,输出通道为1,卷积核为k的卷积;σ(·)表示sigmoid函数。
通道注意力Sc和空间注意力Ss先后与U相乘得到优化后的输出特征图,整体流程如图 5所示。
3. 改进的YOLO v3网络
卷积神经网络中的注意力模块模仿了人接触外界信息时注意力的不均匀分布,计算量略微提升,但能够有效增强网络对有效特征的敏感度。同时,作为一个即插即用模块,注意力模块能够十分方便地嵌入已有网络。
预训练权重初始化的YOLO v3算法对可见光通用目标有着优越的检测效果,但对于红外目标检测来说,目前没有类似的大规模红外数据集可供预训练,多数情况下,不得不利用可见光数据预训练的权重进行网络初始化。但红外图像与可见光图像的成像机理截然不同,两种图像中目标的特性也有着显著差别,往往需要修改原有的检测可见光目标的网络,从而更好地适应红外场景。但是网络结构与网络权重是一一对应的,一旦根据红外目标检测的特点进行了修改,已有的预训练权重不再适用。如果利用MSCOCO数据集重新进行预训练,有着巨大的人力、物力和时间成本。如果直接在实验数据上训练,检测效果将十分依赖数据量的大小,而收集并标注大量的红外数据也是费时费力的。为解决卷积神经网络检测红外目标时遇到的上述困难,我们改进了YOLO v3算法,将注意力模块嵌入原始网络中。在不进行预训练的情况下,有效提升网络的特征提取能力,从有限的训练样本中挖掘出更多的有用信息,最终提高检测性能。
如图 6所示,在骨架网络DarkNet-53的每一个残差块中加入注意力模块,3个预测分支中,最后一个卷积层之前也加入注意力模块。改进后的YOLO v3网络结构如表 1、表 2所示。
表 1 改进的DarkNet-53结构Table 1. The structure of improved DarkNet-53Name Type Num Size Convolutional 32 3×3 Convolutional 64 3×3, 2 Stage 1 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 1$ 32
641×1
3×3Convolutional 128 3×3, 2 Stage 2 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 2$ 64
1281×1
3×3Convolutional 256 3×3, 2 Stage 3 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 8$ 128
2561×1
3×3Convolutional 512 3×3, 2 Stage 4 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 8$ 256
5121×1
3×3Convolutional 1024 3×3, 2 Stage 5 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 4$ 512
10241×1
3×3表 2 改进的预测分支结构Table 2. The structure of improved prediction subnetName Type Num Size Prediction $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ \end{array}} \right) \times 1$ N
2N
N=512, 256, 1281×1
3×3Attention Convolutional (4+1+Ncls) 1×1 YOLO 4. 实验
4.1 实验设置
实验数据由一台长波红外热像仪拍摄,目标为城市街道场景中的车辆,包括轿车、卡车和公交车3类目标。考虑到不同的外界环境,分别在中午11点、下午4点和晚上7点3个时间段采集数据,每个时间段的数据包括了大小两个视场,涵盖了目标不同的角度和尺寸。图像分辨率为1024×768,共630张,为考察训练样本稀少时的网络性能,不进行数据增广,并按照7:3的比例随机划分训练集441张,测试集189张。
实验平台为Linux操作系统,CPU为Intel Xeon E5-2678 v3,GPU为Nvidia RTX 2080ti,内存128 G。实验基于Pytorch,训练的初始学习率为0.01,随着训练轮次的增加,按照余弦函数进行学习率衰减。采用SGD(stochastic gradient descent)算法进行参数更新,动量为0.937,权重衰减为0.0005。
实验指标包括IoU阈值为0.5时的mAP,置信度阈值为0.4时的准确率(Precision)和召回率(Recall)。其中mAP@0.5为主要指标,综合考虑了所有的置信度阈值。
4.2 实验结果
训练120个轮次后,不同网络的实验结果如表 3所示,使用MSCOCO预训练权重进行初始化的YOLO v3算法实现了84.7 mAP。一旦不进行预训练,检测结果会出现剧烈的下降,仅为38.9 mAP,加入注意力模块后,下降的幅度得到了缓解,说明注意力模块能够提高网络对图像中有用信息的敏感度,帮助提升检测性能,证明了所提方法的合理性。对比两个不同的注意力模块,CBAM的效果要好于SE,这归功于空间注意力的加入,进一步提升了网络的检测性能。图 7展示了不同训练轮次时的测试结果。
表 3 训练120轮次的实验结果对比Table 3. The comparison of results when epoch=120Epoch=120 Precision Recall mAP@0.5 YOLO v3-mscoco-pretrained 82.3 77.0 84.7 YOLO v3-no-pretrained 65.3 22.4 38.9 YOLO v3-SE 68.9 36.2 51.7 YOLO v3-CBAM 78.2 40.5 61.7 在训练120个轮次时,即使加入了注意力模块,不进行预训练带来的检测性能下降也不能被完全消除。因此,将训练轮次调整到300,实验结果如表 4所示。
表 4 训练300轮次的实验结果对比Table 4. The comparison of results when epoch=300Epoch=300 Precision Recall mAP@0.5 YOLO v3-no-pre-trained 83.7 65.3 80.6 YOLO v3-SE 87.0 72.4 85.6 YOLO v3-CBAM 87.8 75.8 86.3 训练300个轮次后,在测试集上,3个不经过预训练的网络的检测表现都有了明显提升,但对于未经改动的YOLO v3来说,80.6 mAP的结果依然要低于预训练的网络。而加入注意力模块后,即使不进行预训练,通过训练次数的增加,网络最终的检测结果为86.3 mAP,超过了预训练网络。对于两个不同的注意力模块,CBAM结合了通道注意力和空间注意力,效果要好于只加入了通道注意力的SE模块。不同训练轮次时的测试结果如图 8所示。测试集上的部分检测结果如图 9所示。
5. 结论
当卷积神经网络检测红外图像中的目标时,预训练权重扮演着十分重要的角色,但也严重限制了实际的使用。一旦预训练权重对于网络不再适用或不可获得,网络的检测性能会出现大幅的衰减。为摆脱对预训练权重的过度依赖,本文基于YOLO v3算法,将SE和CBAM两种注意力模块嵌入原始的网络中,提高网络对有用特征的敏感度,缓解了不进行预训练所带来的检测性能下降,并通过训练轮次的调整,最终使无预训练网络的检测表现超越了预训练网络,对于城市街道场景中的车辆目标有着良好的检测效果。
-
表 1 改进的DarkNet-53结构
Table 1 The structure of improved DarkNet-53
Name Type Num Size Convolutional 32 3×3 Convolutional 64 3×3, 2 Stage 1 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 1$ 32
641×1
3×3Convolutional 128 3×3, 2 Stage 2 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 2$ 64
1281×1
3×3Convolutional 256 3×3, 2 Stage 3 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 8$ 128
2561×1
3×3Convolutional 512 3×3, 2 Stage 4 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 8$ 256
5121×1
3×3Convolutional 1024 3×3, 2 Stage 5 $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ {\rm{Attention}} \\ \operatorname{Re} {\rm{sidual}} \\ \end{array}} \right) \times 4$ 512
10241×1
3×3表 2 改进的预测分支结构
Table 2 The structure of improved prediction subnet
Name Type Num Size Prediction $\left( {\begin{array}{*{20}{l}} {\rm{Convolutional}} \\ {\rm{Convolutional}} \\ \end{array}} \right) \times 1$ N
2N
N=512, 256, 1281×1
3×3Attention Convolutional (4+1+Ncls) 1×1 YOLO 表 3 训练120轮次的实验结果对比
Table 3 The comparison of results when epoch=120
Epoch=120 Precision Recall mAP@0.5 YOLO v3-mscoco-pretrained 82.3 77.0 84.7 YOLO v3-no-pretrained 65.3 22.4 38.9 YOLO v3-SE 68.9 36.2 51.7 YOLO v3-CBAM 78.2 40.5 61.7 表 4 训练300轮次的实验结果对比
Table 4 The comparison of results when epoch=300
Epoch=300 Precision Recall mAP@0.5 YOLO v3-no-pre-trained 83.7 65.3 80.6 YOLO v3-SE 87.0 72.4 85.6 YOLO v3-CBAM 87.8 75.8 86.3 -
[1] Otsu N. A threshold selection method from gray-level histograms[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1979, 9(1): 62-66. DOI: 10.1109/TSMC.1979.4310076
[2] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]//Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005: 886-893.
[3] Suykens J A K, Vandewalle J. Least squares support vector machine classifiers[J]. Neural Processing Letters, 1999, 9(3): 293-300. DOI: 10.1023/A:1018628609742
[4] REN S, HE K, Girshick R, et al. Faster r-cnn: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(6): 1137-1149 DOI: 10.1109/TPAMI.2016.2577031
[5] QIN Z, LI Z, ZHANG Z, et al. ThunderNet: Towards real-time generic object detection on mobile devices[C]//Proceedings of the IEEE International Conference on Computer Vision, 2019: 6718-6727.
[6] Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.
[7] DUAN K, BAI S, XIE L, et al. Centernet: keypoint triplets for object detection[C]//Proceedings of the IEEE International Conference on Computer Vision, 2019: 6569-6578.
[8] TANG T, ZHOU S, DENG Z, et al. Vehicle detection in aerial images based on region convolutional neural networks and hard negative example mining[J]. Sensors, 2017, 17(2): 336. DOI: 10.3390/s17020336
[9] DENG J, DONG W, Socher R, et al. Imagenet: a large-scale hierarchical image database[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2009: 248-255.
[10] LIN T Y, Maire M, Belongie S, et al. Microsoft coco: common objects in context[C]//Proceedings of the European Conference on Computer Vision, 2014: 740-755.
[11] Redmon J, Farhadi A. YOLOv3: An incremental improvement[DB/OL]. https://arxiv.org/abs/1804.02767.2020-0703.
[12] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.
[13] Woo S, Park J, Lee J Y, et al. Cbam: convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV), Munich, Germany: Springer, 2018: 3-19.
[14] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[15] Krishna K, Murty M N. Genetic K-means algorithm[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1999, 29(3): 433-439. DOI: 10.1109/3477.764879
-
期刊类型引用(9)
1. 火久元,苏泓瑞,武泽宇,王婷娟. 基于改进YOLOv8的道路交通小目标车辆检测算法. 计算机工程. 2025(01): 246-257 . 百度学术
2. 沈凌云,郎百和,宋正勋,温智滔. 基于DCS-YOLOv8模型的红外图像目标检测方法. 红外技术. 2024(05): 565-575 . 本站查看
3. 聂磊,武丽丽,黄一凡,刘梦然,刘江林. 基于红外图像分析的TSV内部缺陷识别方法研究. 仪表技术与传感器. 2023(01): 38-43 . 百度学术
4. 曹紫绚,刘刚,张文波,刘森,刘中华. 改进回归损失的深度学习单阶段红外飞机检测. 电光与控制. 2023(04): 28-33 . 百度学术
5. 张梦颖,耿蕊. 红外车辆检测中的深度特征处理技术综述. 激光杂志. 2023(09): 11-18 . 百度学术
6. 张睿,李允臣,王家宝,李阳,苗壮. 基于深度学习的红外目标检测综述. 计算机技术与发展. 2023(11): 1-8 . 百度学术
7. 车启谣,严运兵. 基于改进YOLOv3的行人检测研究. 智能计算机与应用. 2022(08): 8-13 . 百度学术
8. 梁秀满,邵彭娟,刘振东,赵恒斌. 自适应特征融合的轻量级交通标志检测方法. 电子测量技术. 2022(23): 107-112 . 百度学术
9. 汤双霞. 基于TensorFlow.js和JSDoop的神经网络训练. 信息技术与信息化. 2021(07): 68-69+75 . 百度学术
其他类型引用(4)