基于DCS-YOLOv8模型的红外图像目标检测方法

沈凌云, 郎百和, 宋正勋, 温智滔

沈凌云, 郎百和, 宋正勋, 温智滔. 基于DCS-YOLOv8模型的红外图像目标检测方法[J]. 红外技术, 2024, 46(5): 565-575.
引用本文: 沈凌云, 郎百和, 宋正勋, 温智滔. 基于DCS-YOLOv8模型的红外图像目标检测方法[J]. 红外技术, 2024, 46(5): 565-575.
SHEN Lingyun, LANG Baihe, SONG Zhengxun, WEN Zhitao. Infrared Image Object Detection Method Based on DCS-YOLOv8 Model[J]. Infrared Technology , 2024, 46(5): 565-575.
Citation: SHEN Lingyun, LANG Baihe, SONG Zhengxun, WEN Zhitao. Infrared Image Object Detection Method Based on DCS-YOLOv8 Model[J]. Infrared Technology , 2024, 46(5): 565-575.

基于DCS-YOLOv8模型的红外图像目标检测方法

基金项目: 

山西省引进人才科技创新启动基金 21010123

山西省高等院校大学生创新项目 S202314101195

吉林省科技发展计划基金项目 YDZJ202102CXJD007

详细信息
    作者简介:

    沈凌云(1979-),女,工学博士,副教授,主要从事机器视觉与智能信息处理方向研究。E-mail:shenshly@163.com

  • 中图分类号: TP391

Infrared Image Object Detection Method Based on DCS-YOLOv8 Model

  • 摘要:

    针对低信噪比与复杂任务场景下,YOLOv8模型对红外遮挡目标和弱小目标检测能力不足的问题,提出了改进的DCS-YOLOv8模型(DCN_C2f-CA-SIoU-YOLOv8)的目标检测方法。以YOLOv8框架为基础,主干网络构建了基于可变形卷积的轻量级DCN_C2f(Deformable Convolution Network)模块,自适应调整网络的视觉感受野,提高目标多尺度特征表示能力。特征融合网络引入基于坐标注意力机制CA(Coordinate Attention)的模块,通过捕捉多目标空间位置依赖关系,提高目标的定位准确性。改进基于SIoU(Scylla IoU)的位置回归损失函数,实现预测框与真实框之间的相对位移方向匹配,加快模型收敛速度并提升检测与定位精度。实验结果表明,相较于YOLOv8-n\s\m\l\x系列模型,DCS-YOLOv8在FLIR、OTCBVS与VEDAI测试集上平均精度均值mAP@0.5平均提高了6.8%、0.6%、4.0%,分别达到86.5%、99.0%与75.6%。同时,模型的推理速度满足红外目标检测任务的实时性要求。

    Abstract:

    In response to the challenges posed by low signal-to-noise ratios and complex task scenarios, an improved detection method called DCS-YOLOv8 (DCN_C2f-CA-SIoU-YOLOv8) is proposed to address the insufficient infrared occluded object detection and weak target detection capabilities of the YOLOv8 model. Building on the YOLOv8 framework, the backbone network incorporates a lightweight deformable convolution network (DCN_C2f) module based on deformable convolutions, which adaptively adjusts the network's visual receptive field to enhance the multi-scale feature representation of objects. The feature fusion network introduces the coordinate attention (CA) module based on coordinate attention mechanisms to capture spatial dependencies among multiple objects, thereby improving the object localization accuracy. Additionally, the position regression loss function is enhanced using Scylla IoU to ensure a relative displacement direction match between the predicted and ground truth boxes. This improvement accelerates the model convergence speed and enhances the detection and localization accuracy. The experimental results demonstrate that DCS-YOLOv8 achieves significant improvements in the average precision of the FLIR, OTCBVS, and VEDAI test sets compared to the YOLOv8-n\s\m\l\x series models. Specifically, the average mAP@0.5 values are enhanced by 6.8%, 0.6%, and 4.0% respectively, reaching 86.5%, 99.0%, and 75.6%. Furthermore, the model's inference speed satisfies the real-time requirements for infrared object detection tasks.

  • 折射率n和消光系数k称为物质的光学常数,这两个参量是随光波长变化的,但习惯称为常数。在电磁波理论中,光谱反射率和透射率等光学性质可用物质的光学常数来描述,因此可通过测量光学性质来确定光学常数。方法主要有双光谱反演法[1]、反射光谱反演法[2]、透射光谱反演法[3-5]、双厚度透射光谱反演法[6-7]

    Bohren和Huffman[8]用电磁波理论建立了平板材料的光谱透射率模型、以及只考虑光在平板内的多次反射,而忽略干涉效应时的非相干透射率模型。基于前者,Tuntomo[6]等人采用玻璃-液体-玻璃三层平板结构,测量两个不同厚度液体的光谱透射率,在忽略玻璃影响的情形下通过迭代法反演确定了碳氢燃料庚烷和癸烷的光学常数。基于非相干透射率模型,李全葆等人[7]通过测量不同厚度碲镉汞晶片的光谱透射率,采用迭代法求解了碲镉汞的光学常数;苏星等人[9]测量了一种红外硒化物玻璃的光学常数。李栋等人[10-12]以上述研究为基础,提出了多种改进透射率模型及反演算法,提高了三层平板结构测量液体光学常数的精度;王程超等人[13]基于射线踪迹法推导了三层结构系统的总透射率模型,并采用粒子群优化算法(Particle Swarm Optimization, PSO)进行反演计算了生物柴油的光学常数。

    因为多层结构的存在,上述测量液体光学常数的透射率模型和反演算法较为复杂。但对于半透明固体材料,如石英、金刚石、砷化镓、氟化镁和硒化锌等红外光学材料在光学窗口、像质改善和液体光学测量等方面有重要应用。这类固体材料可制备成单一材料结构并基于双厚度透射率模型测量其光学常数,这种情况下主要研究反演算法。如李栋等人[14-15]提出了简化方程迭代法(Simplifie-Equation Iterative, SEI)和蒙特卡洛法(Monte-Carlo, MC);吴国忠等人[16]对SEI、MC和PSO三种方法做了比较研究,结论是PSO方法精度更高。

    使用反演迭代法确定光学常数的方法计算耗时且存在迭代误差,上述学者在反演算法的设计、精度提升及误差减小上做了很多研究,但直接去求解双厚度透射率方程的尝试还未见报道。本文在这一方面做了探索,只要将双厚度透射率模型中的两个厚度设定为2倍关系,则经过代数推导,即可获得与衰减系数(可换算出消光系数)有关的八次多项式方程,以及关于界面反射率的一元二次方程。这两个方程均可求得精确数值解或解析解,从而避免了反演算法的耗时和误差。本文以文献[6]中庚烷的光学常数作为“理论值”,代入双厚度透射率方程计算的透射率作为“实验数据”,用多项式求根的方法确定庚烷的折射率n和消光系数k,验证了本文方法的可靠性。最后分析了双厚度偏离2倍关系时对计算结果的影响。

    设半透明平板材料的折射率、消光系数分别为nk,则衰减系数α=4πk/λ,其中λ为光波长。将平板材料置于空气(折射率为1,消光系数为0)中,当光线垂直入射时,根据菲涅耳定律和斯涅耳定律,在平板材料与空气分界面上的界面反射率R=[(n-1)2+k2]/[(n+1)2+k2]。由于平板材料有两个界面,考虑光在平板内的多次反射,而忽略干涉效应时,光垂直通过厚度为Li的平板后的透射率Ti可表示为[8]

    $$ T_i=(1-R)^2 \exp \left(-\alpha L_i\right) /\left[1-R^2 \exp \left(-2 \alpha L_i\right)\right] $$ (1)

    则光通过厚度为L和2L的平板材料后的透射率ab分别用式(2)、式(3)表示:

    $$ a=(1-R)^{2}y/(1-R^{2}y^{2})$$ (2)
    $$ b=(1-R)^{2}y^{2}/(1-R^{2}y^{4})$$ (3)

    式中:y=exp(-αL)。给式(2)两侧同乘以y,联立式(3)消去两式右侧的分子,有:

    $$ ay-b=(ay-by^{2})y^{2}R^{2} $$ (4)

    将式(4)中的R代入式(2),经过代数运算可得:

    $$ \begin{aligned} f(y)= & p_8 y^8+p_7 y^7+p_6 y^6+p_5 y^5+p_4 y^4+p_3 y^3+p_2 y^2+ \\ & p_1 y+p_0=0 \end{aligned}$$ (5)

    式中:p8=b2p7=-2ab(1+b),p6=a2(1+b)2p5=2ab(1+b),p4=-2(a2+a2b2+b2),p3=2ab(1-b),p2=a2(1-b)2p1=-2ab(1-b),p0=b2,式(5)是关于y的一元八次多项式方程,通过数值求解可得到其8个根,但只有满足0<y<1的根才有实际物理意义。则平板材料的衰减系数和消光系数分为:

    $$ \alpha=-\ln (y) / L$$ (6)
    $$ k=-\lambda \ln (y) /(4 {\rm{ \mathsf{ π} }} L)$$ (7)

    另由式(2)可得:

    $$ R^{2}(ay^{2}+y)-2yR+(y-a)=0 $$ (8)

    式(8)是关于R的一元二次方程,由于其判别式非负,又因0<R<1,则方程(8)的解为:

    $$ R = (1 - \sqrt {a(a - y + 1/y)} )/(ay + 1) $$ (9)

    则平板材料的折射率为:

    $$ n = (1 + R)/(1 - R) + \sqrt {{{(1 + R)}^2}/{{(1 - R)}^2} - (1 + {k^2})} $$ (10)

    只要测量出L、2L两种厚度下的光谱透射率ab,可由式(5)求多项式方程的根,再由式(6)、式(7)和式(10)计算出衰减系数、消光系数和折射率。上述方法不必经过耗时的反演迭代来确定光学常数(多项式求根所用计算时间可忽略不计),所以结果中不存在反演误差。

    本文采用文献[6]中庚烷在2.5~15 μm的光学常数作为“理论值”。将上述光学常数代入式(2)、式(3),计算厚度分别为L=15 μm和2L=30 μm下的透射率作为“实验数据”,然后利用多项式求根的方法确定庚烷的光学常数,通过比较计算结果与理论值的相对误差来验证本文方法的可靠性。需要指出,由于本文透射率模型与文献[6]的透射率模型不同,这里的“实验数据”与文献[6]的真实实验数据是有差别的。此处仅是借用文献[6]的数据构造了适合本文透射率模型的“实验数据”来代替实际实验,其好处是可以避免实际实验的其他误差而专门研究多项式求根方法的可靠性。

    基于多项式求根方法确定的庚烷光学常数如图 1所示,消光系数有3个峰值,对应3个强吸收带。从消光系数和折射率的相对误差可以看出计算结果与理论值符合得很好,其中消光系数的最大相对误差为-9.4×10-7%,折射率的最大相对误差为1.4×10-5%。结果表明本文方法确定光学常数没有反演迭代误差。

    图  1  基于多项式求根方法确定文献[6]中庚烷的光学常数
    Figure  1.  Determination of the optical constant of heptane in reference [6] based on polynomial root method

    由于本文方法要求材料的两个厚度成2倍关系,如果第二厚度的制备或测量存在误差,则会导致计算结果出现误差。假定第二个厚度2L存在1%和5%的误差,则实际的厚度为(2±0.02)L和(2±0.1)L,不妨取1.98L和1.9L,则相应的透射率为b′=(1-R)2y1.98/(1-R2y3.96)和b″=(1-R)2y1.9/(1-R2y3.9)。将文献[6]中庚烷的光学常数代入此处公式计算的透射率作为“实验数据”,但仍按照基于2倍厚度关系推导的多项式方程来计算光学常数,通过比较计算结果与理论值的相对误差来评估厚度偏离2倍关系时对计算结果的影响,结果分别如图 23图 45所示。

    图  2  第二厚度2L存在1%误差时k的计算误差
    Figure  2.  Calculation error of k when the second thickness 2L has 1% error
    图  3  第二厚度2L存在1%误差时n的计算误差
    Figure  3.  Calculation error of n when the second thickness 2L has 1% error
    图  4  第二厚度2L存在5%误差时k的计算误差
    Figure  4.  Calculation error of k when the second thickness 2L has 5% error
    图  5  第二厚度2L存在5%误差时n的计算误差
    Figure  5.  Calculation error of n when the second thickness 2L has 5% error

    图 23所示,第二个厚度2L存在1%的误差时,消光系数的相对误差在(2~2.03)%之内,而折射率在3.4 μm、6.8 μm、13.8 μm吸收带的误差较大,分别为26.9%、3.8%和1.3%,其余波长处的误差不超过1%。可见,不考虑强吸收点,就整个波段范围来看,由于厚度不满足2倍关系对消光系数计算结果的影响大于折射率;但在强吸收点,同样的厚度改变,由于k值较大所造成的透过率的相对误差就比较大,折射率的计算对此比较敏感,而消光系数的计算却不敏感。

    图 45所示,第二个厚度2L存在5%的误差时,消光系数的相对误差在(10~10.15)%之内,而折射率在3.4 μm、6.8 μm、13.8 μm吸收带的误差较大,分别为134.9%、18.5%和6.4%,其余波长处的误差不超过3.5%。其结论与厚度存在1%误差时的情形相似。再比较厚度误差1%和5%的计算结果,可以看出当厚度误差扩大5倍时,消光系数、强吸收点折射率的计算误差也扩大5倍左右,但其余波长处折射率的计算误差仅扩大3.5倍,对厚度的误差相对不敏感。

    基于传统的双厚度透射率模型,在将两个厚度设定为2倍关系时,可获得与衰减系数有关的八次多项式方程,以及关于界面反射率的一元二次方程。通过多项式方程求根的方法实现了光学常数的确定,从而避免了反演迭代法的耗时和误差。借用文献[6]中庚烷的光学常数验证了本文方法的可靠性,除了个别的强吸收点,即使模型中的两个厚度偏离2倍关系时本方法仍能获得较好的计算结果。

  • 图  1   改进的YOLOv8算法网络结构

    Figure  1.   Network structure of improved YOLOv8 algorithm

    图  2   标准卷积与可变形卷积采样对比图

    Figure  2.   Sampling comparison between standard convolution and deformable convolution

    图  3   坐标注意力模块

    Figure  3.   Schematic diagram of coordinate attention module

    图  4   位置回归损失函数的成本计算

    Figure  4.   The scheme calculates the costs contribution in the position regression loss function

    图  5   位置回归损失函数的权重优化

    Figure  5.   Optimizing the weights of the position regression loss

    图  6   目标类别分布混淆矩阵图(FLIR)

    Figure  6.   Confusion matrix of object category distribution (FLIR)

    图  7   Precision-Recall曲线(FLIR)

    Figure  7.   Precision-Recall curves (FLIR)

    图  8   YOLOv8n与DCS-YOLOv8n在FLIR测试集的部分目标检测结果对比

    Figure  8.   Comparison of object detection results on the FLIR test set between YOLOv8n and DCS-YOLOv8n

    图  9   DCS-YOLOv8n在FLIR、OTCBVS与VEDAI数据集的目标检测结果标注

    Figure  9.   Annotated illustration of object detection results of DS-YOLOv8n on FLIR, OTCBVS, and VEDAI datasets

    表  1   模型训练超参数设置

    Table  1   Model training hyperparameter settings

    Hyperparameter options Setting
    Input Resolution 640×640
    Initial Learning Rate 0 (lr0) 0.01
    Learning Rate Float (lrf) 0.01
    Momentum 0.937
    Weight_Decay 0.0005
    Batch_Size 4
    Epochs 200
    下载: 导出CSV

    表  2   不同数据集上消融实验结果对比

    Table  2   Comparison of ablation experiment results on different datasets

    Models 1 Params/M GFLOPs Precision /% 2 Recall /% 2 mAP@0.5 /% 2
    B D C S D1 D2 D3 D1 D2 D3 D1 D2 D3
    3.2 8.2 74.5 94.1 73.2 68.6 90.0 43.5 77.2 97.6 60.5
    3.4 8.3 80.1 94.5 74.4 74.3 90.2 43.9 79.5 98.0 61.3
    3.2 8.2 80.0 94.4 80.1 73.1 93.3 49.6 78.0 97.9 62.8
    3.2 8.2 80.3 95.7 73.8 75.5 94.7 68.1 80.8 97.8 64.3
    3.4 8.3 80.5 94.3 71.7 75.2 93.3 69.8 80.5 98.2 67.6
    3.4 8.3 80.8 98.5 69.3 75.5 96.3 68.0 81.5 98.3 68.1
    3.2 8.2 81.2 99.5 69.5 75.6 95.4 72.1 82.0 98.0 70.5
    3.4 8.3 81.1 99.3 73.5 75.7 95.9 70.5 83.1 98.5 71.3
    1 B: Base(Yolov8n), D: DCN_C2f, C: CA, S: SIoU. 2 D1: FLIR, D2: OTCBVS, D3: VEDAI.
    下载: 导出CSV

    表  3   不同模型的目标检测实验结果

    Table  3   Results of different object detection model

    Models Params/M GFLOPs mAP@0.5/%1 Inference/(ms) 1
    D1 D2 D3 D1 D2 D3
    Faster R-CNN 15.8 28.3 71.1 87.8 52.4 30.4 102.3 63.1
    YOLOv3_tiny 8.7 13.0 74.2 90.5 58.1 12.6 37.1 21.3
    YOLOv5n 7.0 16.0 75.1 95.8 59.3 6.9 25.1 11.7
    YOLOv8n 3.2 8.2 77.2 97.6 67.5 7.1 23.7 9.9
    YOLOv8s 11.2 28.8 79.3 98.1 71.5 10.8 29.8 12.3
    YOLOv8m 25.9 79.1 81.5 98.5 72.6 20.5 41.0 15.2
    YOLOv8l 43.6 165.4 82.7 98.9 74.8 35.1 52.5 19.5
    YOLOv8x 68.2 258.1 84.5 99.1 76.9 47.5 70.6 27.1
    DCS-YOLOv8n 3.4 8.3 83.1 98.5 72.5 7.1 22.9 10.6
    DCS-YOLOv8s 11.3 29.2 85.2 98.9 73.8 10.9 28.7 13.1
    DCS-YOLOv8m 25.9 79.5 87.4 99.2 75.9 20.6 38.1 16.4
    DCS-YOLOv8l 43.8 165.8 88.1 99.3 77.2 35.3 50.4 21.0
    DCS-YOLOv8x 69.1 258.5 88.6 99.3 78.6 47.9 62.7 29.1
    1 D1: FLIR, D2: OTCBVS, D3: VEDAI.
    下载: 导出CSV
  • [1] 韩金辉, 魏艳涛, 彭真明, 等. 红外弱小目标检测方法综述[J]. 红外与激光工程, 2022, 51(4): 438-461. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202204050.htm

    HAN J H, WEI Y T, PENG Z M, et al. Infrared dim and small target detection: a review[J]. Infrared and Laser Engineering, 2022, 51(4): 438-461. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202204050.htm

    [2]

    Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

    [3]

    ZHAO M, LI W, LI L, et al. Single-frame infrared small-target detection: a survey[J]. IEEE Geoscience and Remote Sensing Magazine, 2022, 10(2): 87-119. DOI: 10.1109/MGRS.2022.3145502

    [4]

    Girshick R. Fast R-CNN[C]//IEEE International Conference on Computer Vision (ICCV), 2015: 1440-1448.

    [5]

    Gavrilescu R, Zet C, Fosalau C, et al. Faster R-CNN: an approach to real-time object detection[C]//Proc of International Conference and Exposition on Electrical and Power Engineering, 2018: 165-168.

    [6]

    CAI Z, Vasconcelos N. Cascade R-CNN: delving into high quality object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 6154-6162.

    [7]

    HE Kaiming, Gkioxari Georgia, Dollar Piotr, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327. DOI: 10.1109/TPAMI.2018.2858826

    [8]

    WEI Liu, Dragomir Anguelov, Dumitru Erhan, et al. SSD: single shot multibox detector[J]. arXiv, 2015: 1512.02325.

    [9]

    Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016: 779-788.

    [10]

    Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv, 2018: 1804.02767.

    [11]

    Krizhevsky A, Sutskever I, Hinton Ge. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90. DOI: 10.1145/3065386

    [12] 高昂, 梁兴柱, 夏晨星, 等. 一种改进YOLOv8的密集行人检测算法[J]. 图学学报, 2023, 44(5): 890-898. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX202305005.htm

    GAO A, LIANG X Z, XIA C X, et al. A dense pedestrian detection algorithm with improved Yolov8[J]. Journal of Graphics, 2023, 44(5): 890-898. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX202305005.htm

    [13] 陈皋, 王卫华, 林丹丹. 基于无预训练卷积神经网络的红外车辆目标检测[J]. 红外技术, 2021, 43(4): 342-348. http://hwjs.nvir.cn/cn/article/id/8142853e-c38f-43ff-8915-4810e1948dc3?viewType=HTML

    CHEN G, WANG W H, LIN D D. Infrared vehicle target detection based on convolutional neural network without pre-training[J]. Infrared Technology, 2021, 43(4): 342-348. http://hwjs.nvir.cn/cn/article/id/8142853e-c38f-43ff-8915-4810e1948dc3?viewType=HTML

    [14] 周颖, 颜毓泽, 陈海永, 等. 基于改进YOLOv8的光伏电池缺陷检测[J]. 激光与光电子学进展, 2024, 61(8): 0812008. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202408025.htm

    ZHOU Y, YAN Y Z, CHEN H Y et al. Defect detection of photovoltaic cells based on improved Yolov8[J]. Laser & Optoelectronics Progress, 2024, 61(8): 0812008. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202408025.htm

    [15]

    HOU L, LU K, XUE J, et al. Cascade detector with feature fusion for arbitrary-oriented objects in remote sensing images[C]//IEEE International Conference on Multimedia and Expo, 2020: 1-6.

    [16]

    XU D, WU Y. FE-YOLO: A feature enhancement network for remote sensing target detection[J]. Remote Sensing, 2021, 13(7): 1311. DOI: 10.3390/rs13071311

    [17]

    LIU W, MA L, WANG J, et al. Detection of multiclass objects in optical remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 16(5): 791-795.

    [18]

    HU J, ZHI X, SHI T, et al. PAG-YOLO: a portable attention-guided YOLO network for small ship detection[J]. Remote Sensing, 2021, 13(16): 3059. DOI: 10.3390/rs13163059

    [19]

    CHEN L, SHI W, DENG D. Improved YOLOv3 based on attention mechanism for fast and accurate ship detection in optical remote sensing images[J]. Remote Sensing, 2021, 13(4): 660. DOI: 10.3390/rs13040660

    [20]

    Gevorgyan Z. Siou Loss: More powerful learning for bounding box regression[J]. arXiv, 2022: 2205.12740.

    [21]

    XU Z, XU X, WANG L, et al. Deformable convnet with aspect ratio constrained NMS for object detection in remote sensing imagery[J]. Remote Sensing, 2017, 9(12): 1312-1331. DOI: 10.3390/rs9121312

    [22]

    LI C, LUO B, HONG H, et al. Object detection based on global-local saliency constraint in aerial images[J]. Remote Sensing, 2020, 12(9): 1435-1457. DOI: 10.3390/rs12091435

    [23]

    ZHENG Z, ZHONG Y F, MA A L, et al. HyNet: hyper-scale object detection network framework for multiple spatial resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 166: 1-14. DOI: 10.1016/j.isprsjprs.2020.04.019

    [24] 王建军, 魏江, 梅少辉, 等. 面向遥感图像小目标检测的改进YOLOv3算法[J]. 计算机工程与应用, 2021, 57(20): 133-141. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202120016.htm

    WANG J J, WEI J, MEI S H, et al. Improved Yolov3 for small object detection in remote sensing image[J]. Computer Engineering and Applications, 2021, 57(20): 133-141. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202120016.htm

    [25] 张瑶, 潘志松. GP-YOLOX: 无预训练的轻量级红外目标检测模型[J]. 计算机技术与发展, 2022, 32(12): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ202212025.htm

    ZHANG Y, PAN Z S. GP-YOLOX: Light-weight infrared object detection model without pre-training[J]. Computer Technology and Development, 2022, 32(12): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ202212025.htm

    [26]

    DAI J, QI H, XIONG Y, et al. Deformable Convolutional Networks[C]//IEEE International Conference on Computer Vision (ICCV), 2017: 764-777.

    [27]

    DENG L, GONG Y, LU X, et al. Focus-enhanced scene text recognition with deformable convolutions[C]//Proceedings of the 5th International Conference on Computer and Communications, 2019: 1685-1689.

    [28]

    XI W, SUN L, SUN J. Upgrade your network in-place with deformable convolution[C]//Proceedings of the 19th International Symposium on Distributed Computing and Applications for Business Engineering and Science, 2020: 239-242.

    [29]

    LIN T, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327. DOI: 10.1109/TPAMI.2018.2858826

    [30]

    RAZAKARIVONY S, JURIE F. Vehicle detection in aerial imagery: A small target detection benchmark[J]. Journal of Visual Communication and Image Representation, 2016, 32(1): 187-203.

  • 期刊类型引用(2)

    1. 吕永林,郑万祥,李汝劼,张友良,唐莹娟,张伟涛,陈奕君,王贵全,李彦生,王乔方. 基于反射光谱的薄膜光学常数和厚度测试. 红外技术. 2024(08): 965-973 . 本站查看
    2. 杨百愚,武晓亮,王翠香,王伟宇,李磊,范琦,刘静,徐翠莲. 基于多项式求根的双厚度透射率模型确定透明固体光学常数. 红外技术. 2023(09): 969-973 . 本站查看

    其他类型引用(0)

图(9)  /  表(3)
计量
  • 文章访问数:  274
  • HTML全文浏览量:  164
  • PDF下载量:  106
  • 被引次数: 2
出版历程
  • 收稿日期:  2023-08-29
  • 修回日期:  2023-09-27
  • 网络出版日期:  2024-05-23
  • 刊出日期:  2024-05-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日