基于改进YOLOX的X射线违禁物品检测

武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋

武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋. 基于改进YOLOX的X射线违禁物品检测[J]. 红外技术, 2023, 45(4): 427-435.
引用本文: 武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋. 基于改进YOLOX的X射线违禁物品检测[J]. 红外技术, 2023, 45(4): 427-435.
WU Lianquan, CHU Xianteng, YANG Haitao, NIU Jinlin, HAN Hong, WANG Huapeng. X-ray Detection of Prohibited Items Based on Improved YOLOX[J]. Infrared Technology , 2023, 45(4): 427-435.
Citation: WU Lianquan, CHU Xianteng, YANG Haitao, NIU Jinlin, HAN Hong, WANG Huapeng. X-ray Detection of Prohibited Items Based on Improved YOLOX[J]. Infrared Technology , 2023, 45(4): 427-435.

基于改进YOLOX的X射线违禁物品检测

基金项目: 

公共安全风险防控与应急技术装备”国家重点专项2018年度项目 2018YFC0810102

详细信息
    作者简介:

    武连全(1979-),男,硕士,副教授,硕士生导师,主要从事警务指挥与战术、反恐处置与大数据应用研究。E-mail:wu_lianquan0402@126.com

  • 中图分类号: TP391.4

X-ray Detection of Prohibited Items Based on Improved YOLOX

  • 摘要: 在安全检查过程中快速准确地识别违禁物品有利于维护公共安全。针对X射线行李图像中存在的物品堆叠变形、复杂背景干扰、小尺寸违禁物品检测等问题,提出一种改进模型用于违禁物品检测。改进基于YOLOX模型进行,首先在主干网络中引入注意力机制加强神经网络对违禁品的感知能力;其次在Neck部分改进多尺度特征融合方式,在特征金字塔结构后加入Bottom-up结构,增强网络细节表现能力以此提高对小目标的识别率;最后针对损失函数计算的弊端改进IOU损失的计算方式,并根据违禁物品检测任务特点改进各类损失函数的权重,增大对网络误判的惩罚来优化模型。使用该改进模型在SIXray数据集上进行实验,mAP达到89.72%,FPS到达111.7 frame/s具备快速性和有效性,所提模型与阶段主流模型相比准确率和检测速度都有所提升。
    Abstract: In the process of security inspection, rapid and accurate identification of prohibited items is conducive to maintaining public security. To address the problems of stack deformation, complex background interference, and small-sized contraband detection in X-ray luggage images, an improved model for contraband detection is proposed. This improvement is based on the YOLOX model. First, an attention mechanism was introduced into the backbone network to enhance the ability of the neural network to perceive contrabands. Second, in the neck part, the multi-scale feature fusion method was improved upon, and a bottom-up structure was added after the feature pyramid structure to enhance the performance ability of the network for details, thereby improving the recognition rate of small targets. Finally, the calculation method based on IOU loss was upgraded in view of the disadvantages of the loss function calculation. The weights of various loss functions were also increased according to the characteristics of the contraband detection task, and the punishment of network misjudgment was increased to optimize the model. Upon using the improved model on the SiXray dataset, an mAP of 89.72% was attained and a fast and effective FPS arrival rate of 111.7 frame/s was achieved. Compared with mainstream models, the accuracy and detection speed of the proposed model were improved.
  • 交通枢纽场所来往人流量多,载货量大,其安全问题一直以来都是人们关注的重点。对来往旅客的行李进行检查是安全检查任务中的一项重要工作,检测设备一般使用的是X射线安检仪[1]。X射线具有较强的穿透性,将X射线透过不同物体时不同的物质对其吸收和反射特性不同,因此经过显像处理后可以显示出差异性较大的影像从而将违禁物品与其他物品区分出来[2]。但是现阶段的X射线安检仪还需要人工辅助检查,且随着交通运输压力的增加往往会造成误检或漏检从而导致危险事件的发生[3-4]

    为提高违禁物品检测准确度、提高安检效率,早期的部分研究[5-6]从培训安检人员的角度出发以期提高安检人员对X射线图像中违禁物品的分辨能力。而后有学者使用图像处理的方法提升X射线图像质量以便于安检人员有效识别违禁物品,如韩萍等[7]通过使用离散小波变换及自适应正弦灰度变换提出一种X射线图像两级增强方法,该方法能够提高图像清晰度。Khan[8]等使用基于维纳滤波的边缘划分和小波的图像融合来降低图像的噪声来改善X射线图像质量。但是在X射线安检系统中仅仅依靠人的主观判断是远不够的,因此开展违禁物品自动识别算法来辅助安检人员开展检查工作成为研究热点,违禁物品的自动识别研究主要可以分为基于机器学习的方法[9]和基于深度学习的方法[10]。在机器学习方法中,Franzel等[11]针对违禁物品尺寸大小不一、旋转等问题提出了一种多视角检测方法,该方法使用支持向量机来进行分类。王宇等[12]将X射线图像进行轮廓波变换提取到tamura纹理特征,然后使用随机森林对违禁品图像进行分类。机器学习的方法虽然在上述研究中都取得了不错的结果,但是这类方法由于需要人为提取图像特征,且分类器对深层次特征学习能力不够因此对违禁物品检测会受到背景噪声或遮挡物的干扰且检测效率较低不能很好地应用到实际的安检场景。近年来,随着深度学习的发展,涌现出如AlexNet[13],VGGNet[14],GoogleNet[15],ResNet[16]等网络模型实现了对图像的有效分类,证明了深度学习在图像处理中的强大能力。基于深度学习的目标检测可分为基于区域提名的方法和基于端到端(end to end)的方法[17]。基于区域提名的方法即需要针对图像中感兴趣的区域预先选出候选区,其主要方法是R-CNN[18]以及由其衍生的Fast R-CNN[19],Faster R-CNN[20]等。Zhang等人[21]使用R-CNN并提出了一种X射线图像材料分类器能够将行李图像中的有机物与无机物分离开,从而解决图像中行李堆叠的问题。Sigman团队[22]则将半监督自适应机制引入Faster R-CNN网络来解决现实世界中违禁物品X射线图像正负样本不平衡的问题。基于区域提名的目标检测在准确度上往往能达到很好的效果,但是在检测速度上却比不上端到端的目标检测方法,因此不能达到现实场景中安检的实时检测的要求。端到端的方法不需要进行区域提名因此检测速率更快,其最具代表性的是YOLO(you only look once)系列网络[23], 在违禁物品检测任务中也有所应用,Liu等人使用基于YOLO9000的框架实现违禁物品的实时检测[24]。Galvez等[25]在YOLOv3结构上引入了多尺度特征融合机制,平均精度均值(mean Average Precision,mAP)较YOLOv3提高了14%。文献[26-28]分别使用改进的YOLOv3-v5模型用于违禁物品检测。

    为解决违禁物品中物品分布杂乱,物品遮挡重叠及小目标违禁品检测等问题在基于YOLOX-s[29]网络框架上进行改进。

    YOLOX[29]是旷世公司2021年8月提出的新型单阶段目标检测网络,它的性能超过YOLO v3,较YOLO v5也具有一定的优势。相较之前的YOLO系列网络它的改进主要包括数据增强,预测分支解耦(decoupled head)和无锚点(anchor free)这三点,其检测速度及检测效果都取得不错的成绩。

    YOLOX首先在输入端使用Mosaic和Mixup的数据增强策略。Mosaic将4张图片随机剪切拼接用于网络训练;Mixup则随机将两张不同图片用一定比例进行混合从而增加数据集。这两种数据增强方式应用到本文任务中可以丰富违禁物品的背景信息,以及增加物品重叠遮挡的情况,数据增强效果如图 1所示。

    图  1  数据增强效果
    Figure  1.  Example of data augment

    经过数据增强后基线系统的YOLOX使用Darknet53作为主干网络提取特征同时引入特征金字塔(feature pyramid networks,FPN)来进行不同尺度的输出以提高小目标检测的准确率。在预测部分即输出端引入3个Decoupled head结构来加快网络收敛。不同于之前的YOLO系列网络YOLOX将预测框与真实框进行关联并采用Anchor free的方式将中心预测融入类别预测,使用SimOTA标签分配策略使检测结果与使用Anchor based的方法所得到的结果相当而且参数量得到减少。YOLOX在目标检测中具有突出表现,在YOLOX提供的几个模型中YOLOX-s参数量少,方便部署也具有代表性,因此选择在其基础上进行改进以更好解决违禁物品检测问题。

    违禁物品检测任务中存在行李分布杂乱,背景干扰,待检测物体被遮挡、尺寸小等问题,在YOLOX-s模型的基础上提出3个改进点,首先在Backbone中引入CBAM注意力模块加强神经网络对违禁品的感知能力,其次在Neck中特征金字塔部分加入一个正金字塔(bottom-up)结构进行多尺度特征融合,增强网络细节表现能力以此提高对小目标的识别率;最后在预测部分改进损失函数,针对损失函数计算的弊端改进IOU损失的计算方式,并根据违禁物品检测任务特点改进各类损失函数的权重,增大对网络误判的惩罚来优化模型。改进后的网络结构如图 2所示。

    图  2  改进后的网络结构
    Figure  2.  Improved model structure

    在目标检测中主干网络起到提取特征的作用并能够影响检测效果,在数据输入阶段使用改进的CSPDarknet53作为主干网络。CSPDarknet53是在Darknet53中引入了Cross Stage Partial(CSP)结构[30],该结构将输入设置成多个分支,最大化梯度联合的差异从而让模型捕获到更多特征,在YOLOX-s主干网络CSPDarknet53中共有4个CSP模块和一个Focus模块。乘客行李的X射线图像中物品较多背景杂乱,违禁物品常常被遮挡覆盖,或是受到背景干扰。且由于目标检测过程中卷积神经网络将全张图像划分为单元格进行检测,网络需要对图像的每一部分进行建模处理,存在计算量大,计算效率低不能很好地感知出违禁物品从而造成漏检误检等弊端。注意力机制可以使网络模型聚焦在感兴趣的局部信息中,使网络更加关注违禁物品,从而提高对小目标物品检出的准确率。针对网络存在的不足,在主干网络CSPDarknet53第三个CSP结构后引入注意力机制使网络提升对违禁物品的感知能力。采用注意力机制是一种混合域注意力机制卷积块注意力模块(convolutional block attention module,CBAM),该模块被广泛应用于卷积神经网络中[31],算法流程如图 3所示。

    图  3  CBAM算法流程
    Figure  3.  The process of CBAM module

    CBAM模块由通道注意力模块和空间注意力模块组成,在对违禁物品进行感知时在通道和空间两个维度生成相应的权重,计算公式为(1)式:

    $$ \left\{\begin{array}{l} F_C=M_C(F) \otimes F \\ F_{\mathrm{a}}=\boldsymbol{M}_{\mathrm{s}}\left(F_C\right) \otimes F_C \end{array}\right. $$ (1)

    第三个CSP结构输出的特征图为$F \in \mathbb{R}^{C \times H \times W}$,C为特征图像的通道,HW为每个通道中特征图的高和宽,输入到CBAM模块中,首先在通道注意力模块中进行池化下采样生成一维向量$M_C \in \mathbb{R}^{C \times 1 \times 1}$,然后将该通道注意力向量与特征图F相乘生成通道权重特征FC,再将FC输入到空间注意力模块进行空间维度计算生成空间矩阵$\boldsymbol{M}_{\mathrm{s}} \in \mathbb{R}^{1 \times H \times W}$,最后将FCMs相乘获取空间注意力权重并最终得到注意力特征映射Fa

    在深度卷积神经网络中,随着不断对图像进行卷积操作,图像的语义信息不断增强但是分细节特征也随之下降。相反,浅层的图像细节表现能力强,但是语义信息表达较弱。根据这一特点,在先前的诸多研究中都利用不同层次的特征图像进行多尺度特征融合以此来提高检出准确率。

    YOLOX-s采用的特征金字塔结构来进行特征融合,FPN结构是自顶向下传递高层图像的语义信息,但是在传递过程中会丢失位置细节信息,本文中输入的X射线图像分辨率大小为640×640,经过下采样后输出的最小特征图为20×20,而违禁物品通常在行李图像中面积占比较小,因此在这个尺寸的特征图里面检出目标物品准确率会有所下降,且由于违禁物品摆放不规则存在侧放或者变形等问题,容易导致误检或者漏检等情况发生。为使网络更加适合违禁物品检测,我们在网络Neck部分原有的FPN结构上进行改进,在网络经过FPN结构后,再添加一个自底向上的正金字塔结构(Bottom-up)用来提高网络传递位置信息的能力,将FPN输出的3个特征图 20×20,40×40,80×80上采样后多尺度进行融合,最终输出的3个特征图大小为40×40,80×80,160×160,该改进增加了输出特征图的大小,有利于特征图保持语义信息传递的基础上增强传递位置细节信息并提高小型违禁品的检出率,改进后的结构如图 4所示。

    图  4  改进后的Neck
    Figure  4.  Improve Neck structure

    在YOLOX-s模型中算法的损失函数主要包括3类:IOU损失(LossIOU);类别损失(Losscls);置信度损失(Lossobj)。IOU指的是交并比,反映的是预测检测框与真实检测框的检测效果其计算公式为(2)式:

    $$ \mathrm{IOU}=\frac{A \cap B}{A \cup B} $$ (2)

    式中:A为预测框;B为真实框。在使用IOU函数进行计算过程中可能会出现预测框和真实框没有相交的情况不能反映两个框的重合度使网络准确率下降,因此对IOU损失计算公式进行优化,采用IOU的负对数运算((3)式)取代IOU函数运算((4)式),使得IOU等于0时使用该算式能够反映两框的距离情况,可以对交并比很低的检测框加大惩罚力度。

    $$ \operatorname{Loss}_{\mathrm{d}}=1-\mathrm{IOU}^2 $$ (3)
    $$ \operatorname{Loss}_{\mathrm{IOU}}=-\ln (\mathrm{IOU}) $$ (4)

    式中:Lossd为默认计算方法,LossIOU为改进的计算方法。

    类别损失包含违禁品的类别信息,置信度损失包含图片的前景、背景信息,类别损失和置信度损失的计算使用BCE With Logits Loss函数,计算公式为(5)(6),其计算时使用该函数网络模型稳定性更强。

    $$ \operatorname{Loss}_{\mathrm{B}}=L_c=\left\{l_{1, c}, \cdots, l_{n, c}\right\}^{\mathrm{T}} $$ (5)

    其中:

    $$ l_{n, c}=-w_{n, c}\left[p_c y_{n, c} \cdot \log \sigma\left(x_{n, c}\right)+\left(1-y_{n, c}\right) \cdot \log \left(1-\sigma\left(x_{n, c}\right)\right)\right] $$ (6)

    式中:x为预测标签;y为真实标签;c为违禁物品类别;N为batch size;每个批次预测n个标签;w为相应权重;p为违禁物品预测概率;σ表示sigmoid函数。

    针对本文任务中物品分布杂乱前景背景信息丰富;违禁物品尺寸不规则;分类类别较少的特点将3类权重weight进行调整,加大IOU损失和置信度损失的比例,以此来增加模型对前景背景及违禁物品尺寸变化的感知能力提高准确度,损失函数表达最终如(7)式所示:

    $$ \text { Loss }=\text { weight }\left(\operatorname{Loss}_{\mathrm{IOU}}+\operatorname{Loss}_{\mathrm{obj}}\right)+\operatorname{Loss}_{\mathrm{cls}} $$ (7)

    实验操作系统为Windows10,搭载的CPU版本为12th Gen lntel(R) Core(TM) i7-12700KF,GPU为NVIDIA GeForce RTX 3090,深度学习框架为Pytorch1.7.1。实验采用迁移学习策略,使用在Pascal voc2007数据集的预训练权重进行训练,网络模型通过迁移学习,对多类图像进行学习可以提高自身的学习能力从而提高检测结果的准确度。训练过程分为冻结阶段和解冻阶段,在冻结训练过程中参数为:epoch=50,batchsize=16,learning rate=0.001,学习衰减率为0.92,优化器使用Adam。之后进行解冻训练,训练参数为:epoch=60,batchsize=8,learning rate=0.0001,学习衰减率为0.92,优化器使用Adam。

    实验所用数据集为中国科学院大学模式识别与智能系统开发实验室构建的SIXray数据集[32],该数据集是目前进行违禁物品检测的主流开源数据集。数据集X射线照片采集于真实场景的地铁站包括枪、刀、扳手、钳子、剪刀和锤子6类含违禁物品图像共计8929张,由于含锤子图像数量较少本研究中将不再讨论。

    为从不同方面评价所提方法对违禁物品检测的有效,实时快速性,本文选取了平均精准率(average precision, AP),平均精准率均值(mean average precision, mAP)以及检测速率(frame per second, FPS)作为评价指标。AP,mAP这两个评价指标是对精准率(precision),召回率(recall)的综合考量可以评估模型的有效性;FPS指的是每秒检测的帧数,可以用来衡量模型的实时性。

    精准率是指正确被预测为某类违禁物品占全部预测为该类违禁物品的比例;召回率是指正确被预测为某类违禁物品占实际上全部为该类违禁物品的比例。两者表达式如下:

    $$ \text { Precision }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FP}} $$ (8)
    $$ \text { Recall }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} $$ (9)

    式中:TP指正确预测为正例;FP指错误预测为正例;FN指错误预测为负例。

    平均精准率可以用来评估某一类违禁物品的预测效果,它是精准率-召回率(precision-recall, P-R)曲线在区间[0, 1]内精准率对召回率的积分,其公式为(10):

    $$ \mathrm{AP}=\int_0^1 p(r) \mathrm{d} r $$ (10)

    其中p为Precision,r为Recall。平均精准率均值能够衡量本文探讨的所有类别违禁物品的检测效果,指的是5类违禁物品平均精准率的平均值。

    在对主干网络改进策略中,为探究注意力机制CBAM添加位置的有效性,本文在主干网络4个CSP结构上分别添加注意力机制来确定CBAM添加位置,结果如表 1所示。

    表  1  CBAM不同添加位置的结果
    Table  1.  Results of different add CBAM locations  %
    Location Gun Knife Pliers Wrench Scissor Map
    CSP_1 95.45 86.43 86.89 83.52 81.61 86.78
    CSP_2 97.12 85.56 87.47 84.98 82.67 87.56
    CSP_3 96.14 85.23 88.45 85.17 83.24 87.65
    CSP_4 97.45 87.77 89.49 86.49 83.71 88.98
    下载: 导出CSV 
    | 显示表格

    表 1可知将注意力机制添加在第3个CSP结构后对各类危险物品检测的平均精准率均最佳。实验结果逐渐递增,推测其原因可能是卷积网络层数的加深,注意力特征图不断下采样,细节信息特征不断被弱化将注意力机制CBAM带来的增益效果抵消,经实验论证,将CBAM模块添加在第3个CSP位置后。

    为探讨以上3个改进策略对网络模型的贡献程度,以YOLOX-s为基线系统在SIXray数据集上进行消融实验,实验参数设置及实验环境保持一致,结果如表 2所示。

    表  2  改进策略的消融实验
    Table  2.  Ablation study Ablation experiments with improved strategies  %
    CBAM Bottom-up Loss Gun Knife Pliers Wrench Scissor Map
    - - - 97.32 81.07 88.24 87.25 79.72 86.72
    - - 97.45 87.77 89.49 86.49 83.71 88.98
    - - 97.49 87.82 89.13 86.51 82.91 88.77
    - - 97.46 84.08 87.86 86.47 82.18 87.61
    97.57 88.74 89.26 88.97 84.05 89.72
    下载: 导出CSV 
    | 显示表格

    表 2,采用注意力机制CBAM模块mAP值为88.98%,说明添加CBAM模块可使网络更加聚焦在危险物品上,使得系统性能得到提升。改进多尺度特征融合策略为系统带来了mAP 2.05%的增益,其原因在于经过Bottom-up结构后,网络模型的细节表现能力得到加强了。改进损失函数使得mAP提高了0.89%,改进后的损失由于增大了惩罚措施有利于网络对违禁物品进行精准判断,从而提高网络模型的性能。Pliers类别中改进模型稍次于只添加CBAM改进策略模型但是综合表现比它好,因此该数值属于合理情况。使用以上改进策略最终使模型mAP值达到89.72%,证明了3种改进策略的有效性。

    现阶段目标检测模型很多,改进策略也不少,为验证所提方法在违禁物品检测任务中的优秀表现,将所提模型与现阶段目标检测主流模型进行性能比较,选用对比模型有Fast R-CNN,RetinaNet,YOLOv3,YOLOv4,YOLOv5 5类具有代表性的主流目标检测算法,以及文献[26-28]中的3种改进算法,这3种改进模型实验使用数据集与本文相同具有可比较性。对比结果如表 3所示。

    表  3  对比实验结果
    Table  3.  Comparative experimental results
    Models Map/(%) FPS/(frame/s)
    Fast R-CNN 80.23 52.8
    RetinaNet 83.94 55.3
    YOLOv3 85.93 56.9
    YOLOv4 86.12 73.8
    YOLOv5s 89.12 98.5
    Guo’s[26] 73.68 55
    Mu’s[27] 80.16 25
    Dong’s[28] 89.60 -
    Ours 89.72 111.7
    下载: 导出CSV 
    | 显示表格

    由对比实验结果可知,所提改进模型较现阶段目标检测主流模型性能都有所提高。其中,较两种基于区域提名目标检测方法mAP分别高9.49%、5.78%,FPS值分别高58.9 frame/s、56.4 frame/s;较3种经典端到端检测方法mAP分别高3.79%、3.6%、0.6%,FPS值分别高54.8 frame/s、37.9 frame/s、13.2 frame/s;较3种改进方法系统性能也更优。图 5 P-R曲线图精确地展现了用于比对模型对每类违禁物品的检出的准确率,其中横坐标表示召回率,纵坐标表示精准率。图 6为改进模型检测的效果图,图中Feature Map为经注意力机制处理得到的特征图,Heat Map是用来反映网络提取违禁品信息的热力图。

    图  5  比对模型对各类违禁物品的P-R曲线
    Figure  5.  P-R curves of different models for various prohibited items
    图  6  改进模型检测效果
    Figure  6.  Experimental renderings

    综上,本文基于YOLOX-s网络模型的3种改进策略在违禁物品检测任务上能够准确捕获违禁物品特征提高检测准确率,使网络具备快速性、准确性。

    为更快更好地解决安检仪X射线违禁品检测中遇到的问题,提出一种改进模型,在YOLOX-s网络模型的基础上首先引入注意力机制,其次改进多尺度特征融合,最后改进损失函数。实验在SiXray公共数据集上开展,对比了现阶段主流的目标检测模型和3种针对违禁物品改进的模型。结果表明:所提方法表现最佳,3种改进策略可以有效解决违禁物品X检测中违禁物品中物品分布杂乱,物品遮挡重叠及小目标违禁品检测等问题。所提方法具有检测速度快,检测准确率高等特点。

  • 图  1   数据增强效果

    Figure  1.   Example of data augment

    图  2   改进后的网络结构

    Figure  2.   Improved model structure

    图  3   CBAM算法流程

    Figure  3.   The process of CBAM module

    图  4   改进后的Neck

    Figure  4.   Improve Neck structure

    图  5   比对模型对各类违禁物品的P-R曲线

    Figure  5.   P-R curves of different models for various prohibited items

    图  6   改进模型检测效果

    Figure  6.   Experimental renderings

    表  1   CBAM不同添加位置的结果

    Table  1   Results of different add CBAM locations  %

    Location Gun Knife Pliers Wrench Scissor Map
    CSP_1 95.45 86.43 86.89 83.52 81.61 86.78
    CSP_2 97.12 85.56 87.47 84.98 82.67 87.56
    CSP_3 96.14 85.23 88.45 85.17 83.24 87.65
    CSP_4 97.45 87.77 89.49 86.49 83.71 88.98
    下载: 导出CSV

    表  2   改进策略的消融实验

    Table  2   Ablation study Ablation experiments with improved strategies  %

    CBAM Bottom-up Loss Gun Knife Pliers Wrench Scissor Map
    - - - 97.32 81.07 88.24 87.25 79.72 86.72
    - - 97.45 87.77 89.49 86.49 83.71 88.98
    - - 97.49 87.82 89.13 86.51 82.91 88.77
    - - 97.46 84.08 87.86 86.47 82.18 87.61
    97.57 88.74 89.26 88.97 84.05 89.72
    下载: 导出CSV

    表  3   对比实验结果

    Table  3   Comparative experimental results

    Models Map/(%) FPS/(frame/s)
    Fast R-CNN 80.23 52.8
    RetinaNet 83.94 55.3
    YOLOv3 85.93 56.9
    YOLOv4 86.12 73.8
    YOLOv5s 89.12 98.5
    Guo’s[26] 73.68 55
    Mu’s[27] 80.16 25
    Dong’s[28] 89.60 -
    Ours 89.72 111.7
    下载: 导出CSV
  • [1] 陈冰. 基于多能X射线成像的违禁物品自动识别[D]. 北京: 北京理工大学, 2018.

    CHEN B. Automatic Recognition of Prohibited Items Based on Multi-energy X-ray Imaging[D]. Beijing: Beijing Institute of Technology, 2018.

    [2] 邰仁忠. X射线物理学[J]. 物理, 2021, 50(8): 501-511. https://www.cnki.com.cn/Article/CJFDTOTAL-WLZZ202108003.htm

    TAI R Z. X-ray physics[J]. Physics, 2021, 50(8): 501-511. https://www.cnki.com.cn/Article/CJFDTOTAL-WLZZ202108003.htm

    [3]

    McCarley J S, Kramer A F, Wickens C D, et al. Visual skills in airport-security screening[J]. Psychological Science, 2004, 15(5): 302-306. DOI: 10.1111/j.0956-7976.2004.00673.x

    [4] 梁添汾, 张南峰, 张艳喜, 等. 违禁品X光图像检测技术应用研究进展综述[J]. 计算机工程与应用, 2021, 57(16): 74-82. DOI: 10.3778/j.issn.1002-8331.2103-0476

    LIANG T F, ZHANG N F, ZHANG Y X, et al. Summary of research progress on application of prohibited item detection in X-ray images[J]. Computer Engineering and Applications, 2021, 57(16): 74-82. DOI: 10.3778/j.issn.1002-8331.2103-0476

    [5]

    Mery D, Mondragon G, Riffo V, et al. Detection of regular objects in baggage using multiple X-ray views[J]. Insight-Non-Destructive Testing and Condition Monitoring, 2013, 55(1): 16-20. DOI: 10.1784/insi.2012.55.1.16

    [6]

    Michel S, Mendes M, de Ruiter J C, et al. Increasing X-ray image interpretation competency of cargo security screeners[J]. International Journal of Industrial Ergonomics, 2014, 44(4): 551-560. DOI: 10.1016/j.ergon.2014.03.007

    [7] 韩萍, 刘则徐, 何炜琨. 一种有效的机场安检X光手提行李图像两级增强方法[J]. 光电工程, 2011, 38(7): 99-105. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201107023.htm

    HAN P, LIU Z X, HE W K, An efficient two-stage enhancement algorithm of X-ray carry-on luggage images[J]. Opto-Electronic Engineering, 2011, 38(7): 99-105. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201107023.htm

    [8]

    Khan S U, Chai W Y, See C S, et al. X-ray image enhancement using a boundary division wiener filter and wavelet-based image fusion approach[J]. Journal of Information Processing Systems, 2016, 12(1): 35-45.

    [9]

    ZHAO B, Wolter S, Greenberg J A. Application of machine learning to x-ray diffraction-based classification[C]//Anomaly Detection and Imaging with X-Rays(ADIX) Ⅲ. International Society for Optics and Photonics, 2018, 10632: 1063205.

    [10]

    Gaus Y F A, Bhowmik N, Breckon T P. On the use of deep learning for the detection of firearms in x-ray baggage security imagery[C]//2019 IEEE International Symposium on Technologies for Homeland Security (HST), 2019: 1-7.

    [11]

    Franzel T, Schmidt U, Roth S. Object detection in multi-view X-ray images[C]//Joint DAGM (German Association for Pattern Recognition) and OAGM Symposium, 2012: 144-154.

    [12] 王宇, 邹文辉, 杨晓敏, 等. 基于计算机视觉的X射线图像异物分类研究[J]. 液晶与显示, 2017, 32(4): 287-293. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201704008.htm

    WANG Y, ZOU W H, YANG X M, et al. X-ray image illegal object classification based on computer vision[J]. Chinese Journal of Liquid Crystals and Displays, 2017, 32(4): 287-293. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201704008.htm

    [13]

    Alom M Z, Taha T M, Yakopcic C, et al. The history began from alexnet: a comprehensive survey on deep learning approaches[J/OL]. arXiv preprint arXiv: 1803.01164, 2018.

    [14]

    WANG L, GUO S, HUANG W, et al. Places205-vggnet models for scene recognition[J/OL]. arXiv preprint arXiv: 1508.01667, 2015.

    [15]

    Ballester P, Araujo R M. On the performance of GoogLeNet and AlexNet applied to sketches[C]//Thirtieth AAAI Conference on Artificial Intelligence, 2016, 30(1): doi: https://doi.org/10.1609/aaai.v30i1.10171.

    [16]

    Haque M F, Lim H Y, Kang D S. Object detection based on VGG with ResNet network[C]//2019 International Conference on Electronics, Information, and Communication (ICEIC) of IEEE, 2019: 1-3(doi: 10.23919/ELINFOCOM.2019.8706476).

    [17]

    ZOU Z, SHI Z, GUO Y, et al. Object detection in 20 years: a survey[J/OL]. arXiv preprint arXiv: 1905.05055, 2019.

    [18]

    CHEN C, LIU M Y, Tuzel O, et al. R-CNN for small object detection[C]//Asian Conference on Computer Vision, 2016: 214-230.

    [19]

    Girshick R. Fast r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.

    [20]

    R Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

    [21]

    ZHANG Y, KONG W, LI D, et al. On using XMC R-CNN model for contraband detection within X-ray baggage security images[J]. Mathematical Problems in Engineering, 2020, 2020: 1-14.

    [22]

    Sigman J B, Spell G P, LIANG K J, et al. Background adaptive faster R-CNN for semi-supervised convolutional object detection of threats in x-ray images[C]//Anomaly Detection and Imaging with X-Rays (ADIX) V, 2020, 11404: 1140404.

    [23]

    Papageorgiou C P, Oren M, Poggio T. A general framework for object detection[C]//Sixth International Conference on Computer Vision (IEEE Cat. No. 98CH36271) of IEEE, 1998: 555-562.

    [24]

    LIU Z, LI J, SHU Y, et al. Detection and recognition of security detection object based on YOLO9000[C]//2018 5th International Conference on Systems and Informatics (ICSAI)of IEEE, 2018: 278-282.

    [25]

    Galvez R L, Dadios E P, Bandala A A, et al. YOLO-based Threat Object Detection in X-ray Images[C]//2019 IEEE 11th International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment, and Management (HNICEM), 2019: 1-5.

    [26] 郭守向, 张良. Yolo-C: 基于单阶段网络的X光图像违禁品检测[J]. 激光与光电子学进展, 2021, 58(8): 0810003. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202108007.htm

    GUO S X, ZHANG L. Yolo-C: one-stage network for prohibited items detection within X-ray images[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0810003. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202108007.htm

    [27] 穆思奇, 林进健, 汪海泉, 等. 基于改进YOLOv4的X射线图像违禁品检测算法[J]. 兵工学报, 2021, 42(12): 2675-2683. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO202112015.htm

    MU S Q, LIN J J, WANG H Q, et al. An algorithm for detection of prohibited items in X-ray images based on improved YOLOv4[J]. Acta Armamentarii, 2021, 42(12): 2675-2683. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO202112015.htm

    [28] 董乙杉, 李兆鑫, 郭靖圆, 等. 一种改进YOLOv5的X光违禁品检测模型[J/OL]. 激光与光电子学进展, [2022-02-21]. http://kns.cnki.net/kcms/detail/31.1690.TN.20220217.1141.008.html.

    DONG Y S, LI Z X, GU J Y, et al. An improved YOLOv5 model for X-ray prohibited items detection[J]. Laser & Optoelectronics Progress: [2022-02-21]. http://kns.cnki.net/kcms/detail/31.1690.TN.20220217.1141.008.html.

    [29]

    GE Z, LIU S, WANG F, et al. YOLOX: Exceeding Yolo series in 2021[J/OL]. arXiv preprint arXiv: 2107.08430, 2021.

    [30]

    WANG C Y, LIAO H, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, 2020: 390-391.

    [31]

    Woo S, Park J, Lee J Y, et al. Cbam: convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

    [32]

    MIAO C, XIE L, WAN F, et al. SiXray: a large-scale security inspection x-ray benchmark for prohibited item discovery in overlapping images[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 2119-2128.

  • 期刊类型引用(8)

    1. 骆远翔,刘春玲,李想. 面向X射线图像违禁品检测的GELAN-YOLOv8算法. 激光与光电子学进展. 2025(02): 400-408 . 百度学术
    2. 颜志明,李新伟,杨艺. 基于改进YOLOv8s的X射线图像违禁品检测算法. 计算机工程与应用. 2025(06): 141-149 . 百度学术
    3. 宋旭东,孙永博,宋亮,刘君和. 基于目标检测的电路板表面缺陷检测方法研究. 大连交通大学学报. 2025(02): 113-120 . 百度学术
    4. 陈涧鑫,甘海云. 基于改进YOLOX的交通标志检测. 汽车实用技术. 2024(02): 67-73 . 百度学术
    5. 闵锋,刘彪,况永刚,毛一新,刘煜晖. 基于空间自适应和内容感知的红外小目标检测. 红外技术. 2024(07): 735-742 . 本站查看
    6. 崔丽群,李万欣. 融合高效通道注意力的复杂场景违禁品检测. 辽宁工程技术大学学报(自然科学版). 2024(04): 494-505 . 百度学术
    7. 王海群,魏培旭. 基于改进YOLOv8的X光图像违禁品检测. 无线电工程. 2024(10): 2288-2295 . 百度学术
    8. 李杨,武连全,杨海涛,牛瑾琳,楚宪腾,王华朋,邹清龙. 一种无人机视角下的小目标检测算法. 红外技术. 2023(09): 925-931 . 本站查看

    其他类型引用(4)

图(6)  /  表(3)
计量
  • 文章访问数:  192
  • HTML全文浏览量:  53
  • PDF下载量:  26
  • 被引次数: 12
出版历程
  • 收稿日期:  2022-03-20
  • 修回日期:  2022-04-20
  • 刊出日期:  2023-04-19

目录

/

返回文章
返回