基于改进YOLOX的X射线违禁物品检测

武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋

武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋. 基于改进YOLOX的X射线违禁物品检测[J]. 红外技术, 2023, 45(4): 427-435.
引用本文: 武连全, 楚宪腾, 杨海涛, 牛瑾琳, 韩虹, 王华朋. 基于改进YOLOX的X射线违禁物品检测[J]. 红外技术, 2023, 45(4): 427-435.
WU Lianquan, CHU Xianteng, YANG Haitao, NIU Jinlin, HAN Hong, WANG Huapeng. X-ray Detection of Prohibited Items Based on Improved YOLOX[J]. Infrared Technology , 2023, 45(4): 427-435.
Citation: WU Lianquan, CHU Xianteng, YANG Haitao, NIU Jinlin, HAN Hong, WANG Huapeng. X-ray Detection of Prohibited Items Based on Improved YOLOX[J]. Infrared Technology , 2023, 45(4): 427-435.

基于改进YOLOX的X射线违禁物品检测

基金项目: 

公共安全风险防控与应急技术装备”国家重点专项2018年度项目 2018YFC0810102

详细信息
    作者简介:

    武连全(1979-),男,硕士,副教授,硕士生导师,主要从事警务指挥与战术、反恐处置与大数据应用研究。E-mail:wu_lianquan0402@126.com

  • 中图分类号: TP391.4

X-ray Detection of Prohibited Items Based on Improved YOLOX

  • 摘要: 在安全检查过程中快速准确地识别违禁物品有利于维护公共安全。针对X射线行李图像中存在的物品堆叠变形、复杂背景干扰、小尺寸违禁物品检测等问题,提出一种改进模型用于违禁物品检测。改进基于YOLOX模型进行,首先在主干网络中引入注意力机制加强神经网络对违禁品的感知能力;其次在Neck部分改进多尺度特征融合方式,在特征金字塔结构后加入Bottom-up结构,增强网络细节表现能力以此提高对小目标的识别率;最后针对损失函数计算的弊端改进IOU损失的计算方式,并根据违禁物品检测任务特点改进各类损失函数的权重,增大对网络误判的惩罚来优化模型。使用该改进模型在SIXray数据集上进行实验,mAP达到89.72%,FPS到达111.7 frame/s具备快速性和有效性,所提模型与阶段主流模型相比准确率和检测速度都有所提升。
    Abstract: In the process of security inspection, rapid and accurate identification of prohibited items is conducive to maintaining public security. To address the problems of stack deformation, complex background interference, and small-sized contraband detection in X-ray luggage images, an improved model for contraband detection is proposed. This improvement is based on the YOLOX model. First, an attention mechanism was introduced into the backbone network to enhance the ability of the neural network to perceive contrabands. Second, in the neck part, the multi-scale feature fusion method was improved upon, and a bottom-up structure was added after the feature pyramid structure to enhance the performance ability of the network for details, thereby improving the recognition rate of small targets. Finally, the calculation method based on IOU loss was upgraded in view of the disadvantages of the loss function calculation. The weights of various loss functions were also increased according to the characteristics of the contraband detection task, and the punishment of network misjudgment was increased to optimize the model. Upon using the improved model on the SiXray dataset, an mAP of 89.72% was attained and a fast and effective FPS arrival rate of 111.7 frame/s was achieved. Compared with mainstream models, the accuracy and detection speed of the proposed model were improved.
  • 随着控制和通信技术的快速发展与应用,传统的工业逐渐实现自动化、智能化[1]。尤其是钢铁冶金方面,智能自动化的实现解决了很多传统操作存在的安全隐患问题,如基于红外测温仪的钢水测温系统[2-3]。红外测温系统的应用逐渐替代了传统的人工测温,不仅提高了钢水的测温精度,还减少了人工测温的安全事故。

    目前,红外测温技术在冶金行业得到广泛应用,尤其是钢水测温方面。其中钢水辐射的红外波长位于0.75~1000 μm,红外测温技术基于钢水辐射的波长能量,得到其表面对面的温度[4]。以上红外测温技术是基于红外辐射理论,即,自然界任何物体(温度在绝对零度以上)时时刻刻都在以电磁波方式向外辐射不同波长的能量。基于这个原理,红外测温技术可以根据辐射体的辐射波长能量,得到其表面对面的温度量[5]。基于钢水的红外热图像,可以得到实时的钢水温度[6]。红外测温原理主要依据于普朗克黑体定律、斯特藩-玻尔兹曼定律和维恩位移定律[7]。根据钢水辐射能量的红外分布图,可以得到对应的辐射体/钢水的温度。即钢水测量温度的准确性取决于由红外热像仪获得的图像的质量[8-9]

    由于实际炼钢环境和测温仪器等不确定性因素的影响,获得的钢水红外热图像存在大量噪声,直接影响最后的钢水测温精度[10]。目前,传统的红外图像去噪处理方法有维纳滤波去噪[11]和稀疏分解去噪[12]等方法。但这些方法都是假设钢水红外图像中的噪声都是独立普通的高斯白噪声,因此对于钢水红外图像中的混合噪声处理效果不太理想。

    为了提高钢水红外图像的去噪效果,本文提出基于自适应维纳滤波的去噪方法。与基于稀疏分解去噪方法相比,本文所提方法在去除噪声后提高了钢水红外图像的细节信息保真度,即去噪后的图像更加真实。此外,在传统维纳滤波去噪方法基础上,本文提出的去噪方法通过建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,并有效提高了传统维纳滤波器的去降噪性能。具体验证过程如下:首先,通过钢水测温平台获得不同温度下的钢水红外热图像。然后,利用所提方法对钢水红外热图像进行去噪处理,并与目前存在的维纳滤波去噪和稀疏分解去噪方法进行对比。实验对比结果验证了本文所提去噪方法可以去除红外热图像的噪声,并提高了去噪后钢水红外图像的峰值信噪比。

    与传统图像去噪方法不同,稀疏分解图像去噪方法从图像自身的统计特性出发,将图像分解成稀疏成分和其他成分,如下式:

    $$ x(m,n) = {x_1}(m,n) + {x_2}(m,n) $$ (1)

    式中:$ {x}_{1}(m,n){=}{\displaystyle \sum _{k=0}^{n-1}\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;$ {x}_{2}(m,n){=}{\displaystyle \sum _{k=\rm{n}}^{\infty }\langle {R}^{k}x(m,n),{g}_{\gamma k}\rangle }$;x(m, n)为原始图像;x1(m, n)为图像的稀疏成分(有用信息);x2(m, n)为图像的其他成分(噪声);gγk为由参数组γ定义的原子,〈Rkx(m, n), gγk〉为图像x(m, n)的残余Rkx(m, n)在对应原子gγk上的分量,然后以图像的稀疏成分为基础重建图像,得到去除噪声后的图像。

    假设图像信号s(m, n)含有噪声信号w(m, n),含有噪声的图像估计信号为:

    $$ x(m,n) = s(m,n) + w(m,n) $$ (2)

    线性估计器为:

    $$\hat s\left( {m,n} \right) = x\left( {m,n} \right)*h\left( {m,n} \right)$$ (3)

    式中:h(m, n)最小均方误差。此外依据正交性原理,最优解h维纳滤波器满足:

    $$ {R_{{\rm{ss}}}}(m,n) = {\left[ {{R_{{\rm{ss}}}}(m,n) + {R_{{\rm{ww}}}}(m,n)} \right]^*}h(m,n) $$ (4)

    滤波器h的傅里叶变换为:

    $$H({w_1},{w_2}) = \frac{{{P_{{\rm{ss}}}}({w_1},{w_2})}}{{{P_{{\rm{ss}}}}({w_1},{w_2}) + {P_{{\rm{ww}}}}({w_1},{w_2})}}$$ (5)

    式中:Rss(m, n)和Rww(m, n)是图像信号s和噪声w的自相关函数;Pss(w1, w2)=σs2是图像信号样本s(m, n)的功率谱;Pww(w1, w2)=σn2是噪声w(m, n)的功率谱,其中σs2σn2分别表示s(m, n)和w(m, n)的方差。

    因此,我们可以得到维纳滤波器为:

    $$h(m,n) = \frac{{\sigma _{\rm{s}}^{\rm{2}}}}{{\sigma _{\rm{s}}^{\rm{2}} + \sigma _{\rm{n}}^{\rm{2}}}}\delta (m,n)$$ (6)

    综上,可以发现最小均方平方误差(Minimum mean square error,MMSE)估计的解是简单的,但是其对信号和噪声的不相关假设并不完全准确。同样考虑小波变换的情况下,非正交结构会在变换域中导致有色噪声,从而使MMSE的解无效。

    为了限制计算复杂度并避免滤波器阶数增长带来的灵敏度问题和变换域导致的噪声问题,我们提出了一种自适应维纳滤波器,该滤波器使用指数衰减自相关模型进行设计。

    类似于式(2),FIR(Finite Impulse Response)维纳滤波器的卷积表达式为:

    $$\hat s(m,n) = \sum\limits_{(i,j) \in {W_{m,n}}} {h(i,j)x(m - i,n - j)} $$ (7)
    $$ {W_{m,n}} = \{ (i,j);m - M \leqslant i \leqslant m + M,n - M \leqslant j \leqslant n + M\} $$ (8)

    式中:Wm, n表示中心在(m, n)的(2M+1)(2M+1)的方形窗口函数;M是自适应滤波器的阶数。等式(7)右侧形成一个有限的块-Toeplitz矩阵[13]

    $$({\mathit{\boldsymbol{R}}_s} + {\mathit{\boldsymbol{R}}_w})\Re = \zeta $$ (9)

    式中:RsRw是(2M+1)(2M+1)的Toeplitz矩阵,对应于两组自相关函数;$\mathfrak{R}$和ζ是关于滤波器系数和信号s自相关函数的(2M+1)2×1向量。从方程(5)我们知道滤波器依赖于信号和噪声的相关性。一旦确定了相关系数,滤波器设计问题就简化为求解线性系统。

    实验结果表明,自然图像的小波系数具有一定的聚类特性。换言之,小波系数的大小与其邻域无关。这种依赖性随着距离的增加而迅速衰减。使用简化符号rm, n: =Rss(m, n),我们提出一个指数衰减模型:

    $${r_{m,n}} = {r_{0,0}}{\gamma ^{\left| m \right| + \left| n \right|}},(m,n) \in {W_{0,0}}$$ (10)

    式中:γ是衰变参数,其随小波系数的尺度变化而变化。指数衰减模型代表了真实图像在其邻居上的系数。此外,频带内自相关函数的变化通过变化的局部方差建模:

    $${s_{m,n}}: = {R_{{\rm{ww}}}}(m,n) = \left\{ \begin{gathered} \sigma _n^2,\quad \quad m = 0,n = 0 \\ {\delta _1}\sigma _n^2,\quad {\kern 1pt} \left| m \right| + \left| n \right| = 1 \\ {\delta _2}\sigma _n^2,\quad \left| m \right| = \left| n \right| = 1 \\ 0,\quad \quad \;\,{\rm{else}} \\ \end{gathered} \right.$$ (11)

    式中:δ是表示是特定表示尺度上小波域系数归一化的界。由于δ是随尺度变化,因此噪声的相关模型也是变化的。

    为了估计在相关模型中的参数,我们为每个频带中的所有系数选择一个通用的衰减参数γ,但是信号方差σs2r0, 0是根据上下文从每个单独的系数估计的。综上,估计信号方差$\hat \sigma _s^2(m,n)$表达式为:

    $${\hat m_s}(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {x(k,l)} $$ (12)
    $$\hat \sigma _x^2(m,n) = \frac{1}{{{{{\rm{(2}}M + 1)}^2}}}\sum\limits_{{W_{m,n}}} {(x(k,l) - } {\hat m_s}(m,n){)^2}$$ (13)
    $$\hat \sigma _s^2(m,n) = \max (0,\hat \sigma _x^2(m,n) - \sigma _n^2)$$ (14)

    基于小波域中的系数聚类,通过式(12)~(13)建立信号和噪声的相关模型来改进小波去噪。通过自相关的参数指数衰减模型来控制算法的计算复杂性和敏感性。由此产生的自适应维纳滤波适应于小波系数,因此可以有效提高维纳滤波器的去降噪性能。

    图 1所示,实验平台采用的设备如下:中频率和对应电源变频柜的输出参数为额定功率1000 kV,额定频率700 Hz,输入电压750 V/50 Hz;红外热像仪型号为FLIR A65,灵敏度小于等于0.08℃。透镜型号为OLA30.4-350。本实验中采用融化较小的钢坯,通过红外热像仪采集融化后的钢水红外热图像,其中对应现场参数修正信息如表 1所示。

    图  1  钢水红外温度检测系统结构图
    Figure  1.  Structural diagram of molten steel temperature detection system
    表  1  用于温度修正的现场参数信息
    Table  1.  Information for temperature correction
    Temperature/℃ 25.0
    Target distance/m 2.2
    Atmospheric transmittance/% 100
    Window transmittance/% 100
    Global emissivity/% 62
    下载: 导出CSV 
    | 显示表格

    为了验证所提方法对钢水图像去噪的效果,本文用均方差(mean squared error,MSE)和峰值信噪比(peak-signal-to-noise ratio,PSNR)作为评价参数[14]。设U1(m, n)表示原始红外图像,U2(m, n)表示去噪后的红外图像,其中mn代表行和列,则对应的均方差和峰值信噪比计算公式如下::

    $$ {\rm{MSE}}={{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{\frac{1}{2}}$$ (15)
    $$ {\rm{PSNR}}=10\mathrm{lg}\left\{\frac{K\times {\rm{MAX}}^{2}}{{{\displaystyle \sum _{m,n}[{U}_{1}(m,n){-}{U}_{2}(m,n)]}}^{2}}\right\}$$ (16)

    由上可知,去噪后图像对应的PSNR数值越高、MSE数值越小暗示去噪方法对钢水红外图像中的噪声处理的效果越好。

    本实验用红外热像仪分别采集温度为1600℃和1696℃下的钢水红外热图像,用本文提出的自适应维纳滤波方法进行去噪处理。对去噪后的图像分别与基于维纳滤波和基于稀疏分解去噪结果进行对比,通过对比各方法的MSE和PSNR评价参数验证本文去噪方法的优越性。

    图 2所示,对采集的1600℃时钢水红外图像进行去噪处理。Fig.2(b)~Fig.2(c)是采用维纳滤波和稀疏分解方法进行去噪处理后的钢水红外图像,Fig.2(d)为本文去噪方法处理后所得钢水红外图像。同样,对在1696℃时钢水红外图像进行去噪处理。基于以上3种去噪方法,所得去噪后的钢水红外图像如图Fig.3(b)~Fig.3(d)所示。

    图  2  1600℃的钢水红外图像去噪对比
    Figure  2.  Denoising comparison of molten steel infrared image at 1600℃
    图  3  1696℃的钢水红外图像去噪对比
    Figure  3.  Denoising comparison of molten steel infrared image at 1696℃

    基于图 2图 3的去噪后钢水红外图像,我们用MSE和PSNR来评价去噪效果,如表 2所示。我们可以发现基于自适应维纳滤波去噪后图像的MSE和PSNR优于基于维纳滤波和稀疏分解去噪方法。

    表  2  不同温度下钢水红外图像去噪效果对比
    Table  2.  Comparison of denoising effect of molten steel infrared image under different temperatures
    Noise processing method MSE PSNR/dB
    1600℃ 1696℃ 1600℃ 1696℃
    Wiener filter
    Sparse decomposition
    FIR wiener filter
    0.1130
    0.0906
    0.0798
    0.1261
    0.1001
    0.0805
    10.235
    18.539
    25.683
    10.095
    19.168
    26.956
    下载: 导出CSV 
    | 显示表格

    基于文献[10]中钢水温度与红外热图像灰度值之间的对应函数关系,我们取热电偶实时测量钢水温度1600℃时的去噪图像分析不同去噪方法对钢水测量精度的影响。表 3的对比数据验证了本文提出的去噪方法可以提高去噪后的钢水红外热图像对应的钢水温度准确性。

    表  3  钢水温度数据对比
    Table  3.  Comparison of the steel temperature data
    Original image Fig.2(a) 1525
    Denoised image using wiener filter Fig.2(b) 1556
    Denoising image using sparse decomposition Fig.2(c) 1576
    Denoising image using adaptive wiener filter Fig.2(d) 1591
    下载: 导出CSV 
    | 显示表格

    本文针对钢水红外图像存的噪声处理问题,提出了基于自适应维纳滤波的去噪处理方法。通过实验验证,所提的去噪方法可以有效地去除噪声。此外,与基于维纳滤波和稀疏分解去噪方法的对比,所提去噪方法可以更好去除钢水红外图像的噪声,提高图像质量保真度。下一步我们将继续优化所提去噪方法的计算复杂度,以便快速地应用于实际钢水红外测温系统中。

  • 图  1   数据增强效果

    Figure  1.   Example of data augment

    图  2   改进后的网络结构

    Figure  2.   Improved model structure

    图  3   CBAM算法流程

    Figure  3.   The process of CBAM module

    图  4   改进后的Neck

    Figure  4.   Improve Neck structure

    图  5   比对模型对各类违禁物品的P-R曲线

    Figure  5.   P-R curves of different models for various prohibited items

    图  6   改进模型检测效果

    Figure  6.   Experimental renderings

    表  1   CBAM不同添加位置的结果

    Table  1   Results of different add CBAM locations  %

    Location Gun Knife Pliers Wrench Scissor Map
    CSP_1 95.45 86.43 86.89 83.52 81.61 86.78
    CSP_2 97.12 85.56 87.47 84.98 82.67 87.56
    CSP_3 96.14 85.23 88.45 85.17 83.24 87.65
    CSP_4 97.45 87.77 89.49 86.49 83.71 88.98
    下载: 导出CSV

    表  2   改进策略的消融实验

    Table  2   Ablation study Ablation experiments with improved strategies  %

    CBAM Bottom-up Loss Gun Knife Pliers Wrench Scissor Map
    - - - 97.32 81.07 88.24 87.25 79.72 86.72
    - - 97.45 87.77 89.49 86.49 83.71 88.98
    - - 97.49 87.82 89.13 86.51 82.91 88.77
    - - 97.46 84.08 87.86 86.47 82.18 87.61
    97.57 88.74 89.26 88.97 84.05 89.72
    下载: 导出CSV

    表  3   对比实验结果

    Table  3   Comparative experimental results

    Models Map/(%) FPS/(frame/s)
    Fast R-CNN 80.23 52.8
    RetinaNet 83.94 55.3
    YOLOv3 85.93 56.9
    YOLOv4 86.12 73.8
    YOLOv5s 89.12 98.5
    Guo’s[26] 73.68 55
    Mu’s[27] 80.16 25
    Dong’s[28] 89.60 -
    Ours 89.72 111.7
    下载: 导出CSV
  • [1] 陈冰. 基于多能X射线成像的违禁物品自动识别[D]. 北京: 北京理工大学, 2018.

    CHEN B. Automatic Recognition of Prohibited Items Based on Multi-energy X-ray Imaging[D]. Beijing: Beijing Institute of Technology, 2018.

    [2] 邰仁忠. X射线物理学[J]. 物理, 2021, 50(8): 501-511. https://www.cnki.com.cn/Article/CJFDTOTAL-WLZZ202108003.htm

    TAI R Z. X-ray physics[J]. Physics, 2021, 50(8): 501-511. https://www.cnki.com.cn/Article/CJFDTOTAL-WLZZ202108003.htm

    [3]

    McCarley J S, Kramer A F, Wickens C D, et al. Visual skills in airport-security screening[J]. Psychological Science, 2004, 15(5): 302-306. DOI: 10.1111/j.0956-7976.2004.00673.x

    [4] 梁添汾, 张南峰, 张艳喜, 等. 违禁品X光图像检测技术应用研究进展综述[J]. 计算机工程与应用, 2021, 57(16): 74-82. DOI: 10.3778/j.issn.1002-8331.2103-0476

    LIANG T F, ZHANG N F, ZHANG Y X, et al. Summary of research progress on application of prohibited item detection in X-ray images[J]. Computer Engineering and Applications, 2021, 57(16): 74-82. DOI: 10.3778/j.issn.1002-8331.2103-0476

    [5]

    Mery D, Mondragon G, Riffo V, et al. Detection of regular objects in baggage using multiple X-ray views[J]. Insight-Non-Destructive Testing and Condition Monitoring, 2013, 55(1): 16-20. DOI: 10.1784/insi.2012.55.1.16

    [6]

    Michel S, Mendes M, de Ruiter J C, et al. Increasing X-ray image interpretation competency of cargo security screeners[J]. International Journal of Industrial Ergonomics, 2014, 44(4): 551-560. DOI: 10.1016/j.ergon.2014.03.007

    [7] 韩萍, 刘则徐, 何炜琨. 一种有效的机场安检X光手提行李图像两级增强方法[J]. 光电工程, 2011, 38(7): 99-105. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201107023.htm

    HAN P, LIU Z X, HE W K, An efficient two-stage enhancement algorithm of X-ray carry-on luggage images[J]. Opto-Electronic Engineering, 2011, 38(7): 99-105. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201107023.htm

    [8]

    Khan S U, Chai W Y, See C S, et al. X-ray image enhancement using a boundary division wiener filter and wavelet-based image fusion approach[J]. Journal of Information Processing Systems, 2016, 12(1): 35-45.

    [9]

    ZHAO B, Wolter S, Greenberg J A. Application of machine learning to x-ray diffraction-based classification[C]//Anomaly Detection and Imaging with X-Rays(ADIX) Ⅲ. International Society for Optics and Photonics, 2018, 10632: 1063205.

    [10]

    Gaus Y F A, Bhowmik N, Breckon T P. On the use of deep learning for the detection of firearms in x-ray baggage security imagery[C]//2019 IEEE International Symposium on Technologies for Homeland Security (HST), 2019: 1-7.

    [11]

    Franzel T, Schmidt U, Roth S. Object detection in multi-view X-ray images[C]//Joint DAGM (German Association for Pattern Recognition) and OAGM Symposium, 2012: 144-154.

    [12] 王宇, 邹文辉, 杨晓敏, 等. 基于计算机视觉的X射线图像异物分类研究[J]. 液晶与显示, 2017, 32(4): 287-293. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201704008.htm

    WANG Y, ZOU W H, YANG X M, et al. X-ray image illegal object classification based on computer vision[J]. Chinese Journal of Liquid Crystals and Displays, 2017, 32(4): 287-293. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201704008.htm

    [13]

    Alom M Z, Taha T M, Yakopcic C, et al. The history began from alexnet: a comprehensive survey on deep learning approaches[J/OL]. arXiv preprint arXiv: 1803.01164, 2018.

    [14]

    WANG L, GUO S, HUANG W, et al. Places205-vggnet models for scene recognition[J/OL]. arXiv preprint arXiv: 1508.01667, 2015.

    [15]

    Ballester P, Araujo R M. On the performance of GoogLeNet and AlexNet applied to sketches[C]//Thirtieth AAAI Conference on Artificial Intelligence, 2016, 30(1): doi: https://doi.org/10.1609/aaai.v30i1.10171.

    [16]

    Haque M F, Lim H Y, Kang D S. Object detection based on VGG with ResNet network[C]//2019 International Conference on Electronics, Information, and Communication (ICEIC) of IEEE, 2019: 1-3(doi: 10.23919/ELINFOCOM.2019.8706476).

    [17]

    ZOU Z, SHI Z, GUO Y, et al. Object detection in 20 years: a survey[J/OL]. arXiv preprint arXiv: 1905.05055, 2019.

    [18]

    CHEN C, LIU M Y, Tuzel O, et al. R-CNN for small object detection[C]//Asian Conference on Computer Vision, 2016: 214-230.

    [19]

    Girshick R. Fast r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.

    [20]

    R Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

    [21]

    ZHANG Y, KONG W, LI D, et al. On using XMC R-CNN model for contraband detection within X-ray baggage security images[J]. Mathematical Problems in Engineering, 2020, 2020: 1-14.

    [22]

    Sigman J B, Spell G P, LIANG K J, et al. Background adaptive faster R-CNN for semi-supervised convolutional object detection of threats in x-ray images[C]//Anomaly Detection and Imaging with X-Rays (ADIX) V, 2020, 11404: 1140404.

    [23]

    Papageorgiou C P, Oren M, Poggio T. A general framework for object detection[C]//Sixth International Conference on Computer Vision (IEEE Cat. No. 98CH36271) of IEEE, 1998: 555-562.

    [24]

    LIU Z, LI J, SHU Y, et al. Detection and recognition of security detection object based on YOLO9000[C]//2018 5th International Conference on Systems and Informatics (ICSAI)of IEEE, 2018: 278-282.

    [25]

    Galvez R L, Dadios E P, Bandala A A, et al. YOLO-based Threat Object Detection in X-ray Images[C]//2019 IEEE 11th International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment, and Management (HNICEM), 2019: 1-5.

    [26] 郭守向, 张良. Yolo-C: 基于单阶段网络的X光图像违禁品检测[J]. 激光与光电子学进展, 2021, 58(8): 0810003. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202108007.htm

    GUO S X, ZHANG L. Yolo-C: one-stage network for prohibited items detection within X-ray images[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0810003. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202108007.htm

    [27] 穆思奇, 林进健, 汪海泉, 等. 基于改进YOLOv4的X射线图像违禁品检测算法[J]. 兵工学报, 2021, 42(12): 2675-2683. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO202112015.htm

    MU S Q, LIN J J, WANG H Q, et al. An algorithm for detection of prohibited items in X-ray images based on improved YOLOv4[J]. Acta Armamentarii, 2021, 42(12): 2675-2683. https://www.cnki.com.cn/Article/CJFDTOTAL-BIGO202112015.htm

    [28] 董乙杉, 李兆鑫, 郭靖圆, 等. 一种改进YOLOv5的X光违禁品检测模型[J/OL]. 激光与光电子学进展, [2022-02-21]. http://kns.cnki.net/kcms/detail/31.1690.TN.20220217.1141.008.html.

    DONG Y S, LI Z X, GU J Y, et al. An improved YOLOv5 model for X-ray prohibited items detection[J]. Laser & Optoelectronics Progress: [2022-02-21]. http://kns.cnki.net/kcms/detail/31.1690.TN.20220217.1141.008.html.

    [29]

    GE Z, LIU S, WANG F, et al. YOLOX: Exceeding Yolo series in 2021[J/OL]. arXiv preprint arXiv: 2107.08430, 2021.

    [30]

    WANG C Y, LIAO H, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, 2020: 390-391.

    [31]

    Woo S, Park J, Lee J Y, et al. Cbam: convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

    [32]

    MIAO C, XIE L, WAN F, et al. SiXray: a large-scale security inspection x-ray benchmark for prohibited item discovery in overlapping images[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 2119-2128.

  • 期刊类型引用(4)

    1. 陈秋艳,张新燕,贺敏,田义春,刘宁,郭瑞,王晓辉,游思源,张修坤. 基于深度学习的管道热图像泄漏识别. 红外技术. 2024(05): 522-531 . 本站查看
    2. 袁敏. 基于机器视觉的智能建造H型钢焊接焊缝轨迹跟踪方法. 西昌学院学报(自然科学版). 2024(03): 46-51+99 . 百度学术
    3. 吴丽华,聂丰英. 基于复小波与最大后验估计的红外图像滤波. 光学技术. 2023(01): 113-119 . 百度学术
    4. 欧卫红,万里勇. 双密度复小波与系数相关性的红外图像去噪. 光学技术. 2023(02): 238-244 . 百度学术

    其他类型引用(6)

图(6)  /  表(3)
计量
  • 文章访问数:  188
  • HTML全文浏览量:  53
  • PDF下载量:  25
  • 被引次数: 10
出版历程
  • 收稿日期:  2022-03-20
  • 修回日期:  2022-04-20
  • 刊出日期:  2023-04-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日