Infrared Image Object Detection Method Based on DCS-YOLOv8 Model
-
摘要:
针对低信噪比与复杂任务场景下,YOLOv8模型对红外遮挡目标和弱小目标检测能力不足的问题,提出了改进的DCS-YOLOv8模型(DCN_C2f-CA-SIoU-YOLOv8)的目标检测方法。以YOLOv8框架为基础,主干网络构建了基于可变形卷积的轻量级DCN_C2f(Deformable Convolution Network)模块,自适应调整网络的视觉感受野,提高目标多尺度特征表示能力。特征融合网络引入基于坐标注意力机制CA(Coordinate Attention)的模块,通过捕捉多目标空间位置依赖关系,提高目标的定位准确性。改进基于SIoU(Scylla IoU)的位置回归损失函数,实现预测框与真实框之间的相对位移方向匹配,加快模型收敛速度并提升检测与定位精度。实验结果表明,相较于YOLOv8-n\s\m\l\x系列模型,DCS-YOLOv8在FLIR、OTCBVS与VEDAI测试集上平均精度均值mAP@0.5平均提高了6.8%、0.6%、4.0%,分别达到86.5%、99.0%与75.6%。同时,模型的推理速度满足红外目标检测任务的实时性要求。
Abstract:In response to the challenges posed by low signal-to-noise ratios and complex task scenarios, an improved detection method called DCS-YOLOv8 (DCN_C2f-CA-SIoU-YOLOv8) is proposed to address the insufficient infrared occluded object detection and weak target detection capabilities of the YOLOv8 model. Building on the YOLOv8 framework, the backbone network incorporates a lightweight deformable convolution network (DCN_C2f) module based on deformable convolutions, which adaptively adjusts the network's visual receptive field to enhance the multi-scale feature representation of objects. The feature fusion network introduces the coordinate attention (CA) module based on coordinate attention mechanisms to capture spatial dependencies among multiple objects, thereby improving the object localization accuracy. Additionally, the position regression loss function is enhanced using Scylla IoU to ensure a relative displacement direction match between the predicted and ground truth boxes. This improvement accelerates the model convergence speed and enhances the detection and localization accuracy. The experimental results demonstrate that DCS-YOLOv8 achieves significant improvements in the average precision of the FLIR, OTCBVS, and VEDAI test sets compared to the YOLOv8-n\s\m\l\x series models. Specifically, the average mAP@0.5 values are enhanced by 6.8%, 0.6%, and 4.0% respectively, reaching 86.5%, 99.0%, and 75.6%. Furthermore, the model's inference speed satisfies the real-time requirements for infrared object detection tasks.
-
0. 引言
微光图像数字化是微光夜视技术的发展趋势,实现微光数字化主要有ICCD(Intensified Charge Coupled Device,ICCD)、EMCCD(Electron-Multiplying Charge Coupled Device,EMCCD)、EBCCD(Electron-BomBarded Charge Coupled Device)、EBCMOS(Electron-BomBarded CMOS,EBCMOS)等途径[1-3]。EBCMOS器件利用电子敏感BCMOS图像传感器(以下将“BCMOS图像传感器”简称为“BCMOS”)将传统微光像增强器的微通道板(Microchannel Plate,MCP)和荧光屏部件替代,使光激发阴极产生的光电子在高压电场作用下直接轰击电子敏感BCMOS实现电子倍增及数字图像信号输出,其具有高灵敏度、低噪声、较低功耗和可进行单光子成像等优点,是一种理想的新型微光成像器件[4-7]。
具有电子敏感特性的BCMOS作为EBCMOS探测器的核心部件,其电子倍增系数、暗电流等参数直接影响EBCMOS探测器最低可工作照度、信噪比等指标。Barbier R.[8]等指出,将BCMOS的硅外延层厚度减薄至8 μm左右,通过离子注入工艺在硅表面形成重掺杂P+层,并经激光退火等工艺可实现具有电子敏感特性的BCMOS制备,但该工艺复杂、对设备依赖度高,难以在国内开展类似研究。王生凯[9]、乔凯[10]等提出,采用氧化铝钝化层的BCMOS具有电子敏感特性,并通过实验证明了厚度为10 nm的氧化铝钝化层对提高电子倍增系数、抑制暗电流的有效性。EBCMOS探测器在工作时电子会持续轰击BCMOS,Nathan Eric Howard[11]等对采用SiO2、Si3N4等材料做钝化层的BCMOS在经受离子、高能电子、高能射线照射后的暗电流增加原因进行了分析,但低能电子轰击对氧化铝钝化层的BCMOS暗电流的影响因素不完全清楚。
本文针对上述问题,模拟EBCMOS探测器制备工艺及工作条件,在特定入射电子能量、累计轰击电子剂量条件下,对研制的厚度为10 nm的氧化铝钝化膜BCMOS电子轰击后暗电流变化规律进行研究,并基于已有CMOS图像传感器暗电流产生理论,分析了暗电流增加的主要原因。
1. 实验
该实验基于国内某款CMOS,通过对其表面进行减薄处理后,将该芯片与基座进行共晶粘接、打线,获得减薄BCMOS,然后采用电子束蒸镀的方式进行钝化层制备。利用高能电子轰击铝靶产生铝蒸汽,在腔体中通入高纯氧与铝蒸汽反应产生氧化铝,氧化铝膜沉积在基底上,沉积速率为0.5Å/s,镀膜中采用晶体膜厚仪对氧化铝膜层厚度进行实时监测,实现对镀膜速率和厚度的自动控制。电子束蒸镀法具有薄膜均匀性好、孔洞少、工艺条件简单、适合于批量生产等优势,本次实验氧化铝膜层厚度为10 nm。
本次实验采用的实验装置是自主研制的低能电子轰击BCMOS图像传感器测试设备,测试设备如图 1所示。其中多级连微通道板(MCP)组、BCMOS放置于真空腔体内部,腔体真空度优于5×10-8 Pa。真空腔室外部设置有紫外光源、透紫外玻璃窗口、多路高压偏置电路、微电流计、BCMOS图像传感器信号读出装置及其成像测试板,以及计算机。其中BCMOS信号读出装置可实现真空腔体内部BCMOS信号与真空腔体外部成像测试板的电信号连通,通过上位机软件可以实现对BCMOS光电参数的控制以及测试数据的快速处理,可实现暗电流、平均输出灰度值、信噪比等参数的测量。
测量方法为:①将待测试的BCMOS安装在真空腔室内,利用超高真空排气系统对真空腔室排气,待真空腔室内部真空度优于1×10-6 Pa时,利用烘箱对真空腔室进行200℃的烘烤除气处理,将真空腔室内部真空度提高至5×10-8 Pa以上,使得电子敏感BCMOS所处状态尽可能接近其在EBCMOS探测器内部工作的状态;②真空腔室烘烤结束且温度恢复室温后,如图 1连接所示,开启紫外灯光,使得紫外光经过石英玻璃观察窗进入真空腔室内部,激发MCP发射光电子,激发的光电子在多级联MCP倍增后形成轰击电子束源,通过调节多级连MCP倍增电压和输出电压参数,可以控制入射至BCMOS表面的电子束密度和轰击能量,并通过BCMOS地引线可获得轰击到BCMOS表面电子束密度的测量;③在特定剂量电子束轰击BCMOS后,通过成像测试板监测BCMOS的暗电流数值,获得轰击电子能量、累计轰击电子数与BCMOS暗电流对应关系。
2. 实验结果及分析
2.1 实验结果
本文实验包括3方面内容:①同一样品在不同电压轰击时暗电流变化情况;②相同钝化层厚度的2只样品在不同电压轰击时暗电流变化情况;③电子轰击后BCMOS静置状态下暗电流变化情况。
1)同一样品在不同电压轰击时暗电流变化
将制备的氧化铝钝化层BCMOS装入低能电子轰击BCMOS图像传感器测试设备,进行烘烤除气处理,系统真空度达到4.5×10-8 Pa后,测量该传感器初始暗电流为150 e-/pixel/s,然后通过调节紫外光源强度、多级联MCP电压,使得入射到BCMOS表面的电子密度达到(40±1)nA/cm2;通过调节MCP输出端电压,使得输出电压分别达到-300 V、-600 V、-900 V、-1200 V和-1500 V,且在每个电压条件下轰击时间均为4 h,当轰击时间达到4 h时,关闭上述紫外光源和MCP输出端各极电压,监测BCMOS的暗电流数值,暗电流数据如表 1所示。由表 1可知,当轰击电子能量为300 eV时,BCMOS暗电流增长不足5%,轰击电压调制600 eV后,BCMOS暗电流逐渐增加,增长超过5倍,且随着累计轰击电子数增加,暗电流明显增加,但增长速率有所减小,最后达到最大值12000 e-/pixel/s。
表 1 不同电压条件轰击后暗电流监测值Table 1. Dark current monitoring values after bombardment under different voltage conditionsBombardment electron energy/eV Dark current/(e-/pixel/s) Dark current growth rate 1 300 157 4.7% 2 600 986 528.0% 3 900 3827 288.1% 4 1200 9815 156.5% 5 1500 12000 22.3% 2)不同样品在不同电压轰击条件下暗电流变化
为了验证电压对暗电流影响,将制备的2只厚度为10 nm的氧化铝钝化层BCMOS分别装入低能电子轰击BCMOS图像传感器测试设备,进行烘烤除气处理,系统真空度达到4.5×10-8 Pa后,通过调节紫外光源强度、多级联MCP电压,使得入射到BCMOS表面的电子密度达到(40±1)nA,并调节MCP输出端电压,使得输出电压分别达到-1200 V和-1500 V,并在轰击过程中监测BCMOS图像传感器的暗电流数值,具体数据如图 2所示。由图 2可知,在轰击初始时刻,暗电流随累计轰击电子数成线性增加,且电子轰击能量越大,暗电流增加速率越大,随着累计电子轰击数增加,暗电流增加速率减小,且最终均趋于饱和,饱和值约为12000 e-/pixel/s。
3)电子轰击样品大气环境静置后暗电流变化数据
将电子轰击后BCMOS存储在电子干燥柜中,并每隔24 h在大气条件下,按照通用测试方法对其暗电流数值进行监测,其暗电流变化如图 3所示,其在静置初期,暗电流减小速率较大,随着静置时间延长,暗电流减小速率减小,并趋于稳定值,其整体衰减趋势为指数衰减。
2.2 实验分析
电子轰击BCMOS图像传感器时,入射电子首先进入钝化层内部,通过电离、晶格碰撞散射等方式损伤部分能量,然后进入硅材料内部,通过与硅原子碰撞散射,或使硅电离产生电子空穴对,并在内建电场作用下使得电子向体内漂移,由于本实验仅研究1.5 keV以内电子轰击情况,根据前期研究,入射电子能量为2 keV时其入射深度约为50 nm[8],因此上述碰撞电离过程均发生在表面50 nm以内的深度。
电子轰击固体材料表面时,可能会产生X射线,Nathan Eric Howard给出了电子轰击硅基材料时X射线发生率,如图 4所示[11],入射电子能量超过1.8 keV时,会产生软X射线,本实验所研究的轰击电子能量不超过1.5 keV,则可不考虑X射线对BCMOS造成的影响。
根据上述分析,本实验电子轰击后引起的BCMOS暗电流增加,主要与BCMOS钝化层、钝化层与硅界面或硅表面晶格损伤有关,为进一步明确暗电流增加的内在原因,特基于蒙特卡洛仿真、电子轰击造成硅晶格损伤机理,以及Shockley-Read-Hall理论3个方面进行了分析,具体如下:
1)钝化层电子模拟仿真
为分析电子轰击引起钝化层变化对暗电流的影响,特利用CASINO软件对入射电子在钝化层内部的运动轨迹进行仿真研究。仿真基本参数条件为:P型硅衬底厚度10 μm,氧化铝厚度10 nm,入射电子能量分别为300 eV、600 eV,入射角度为90°,仿真结果如图 5所示。
如图 5(a)所示,当电子能量为300 eV时,电子最大入射深度约为7 nm,无法到达钝化层与硅界面;如图 5(b)所示,当电子入射能量为600 eV时,部分电子可穿过钝化层。根据电子轰击过程中当电子能量为300 eV时,暗电流几乎不变,而电子轰击能量增加至600 eV以后时,暗电流开始增加,据此可以推断,暗电流增加与透过钝化层的电子有关系。
2)入射至硅晶体内部电子引起硅晶格损伤分析
当晶格原子接受的能量达到某一临界值(称为原子位移阈值),晶格原子将离开原来的格点位置,发生原子位移,产生点缺陷,这种晶格损伤是永久损伤。
位移损伤会诱发CMOS体Si禁带中的空位-间隙对和体缺陷的产生,入射粒子能量越大,晶格内发生位移的原子就越多,从而形成新的复合中心,从而使载流子的迁移率减小,电阻率增加,少数载流子寿命降低,体缺陷会成为载流子的散射中心,从而使载流子迁移率降低,这相应地增加了耗尽区的宽度,少子寿命随辐照注量的增加而减少,这都会造成CMOS体暗电流增大[12]。
晶格原子的位移阈值能量Ed描述晶体受辐照损伤的难易程度,Ed取决于晶体结构/掺杂等情况,对硅和锗等四面键合结构,Baiierlein和Sigmund给出了Ed=6~16 eV的结果,Lofershi给出的结果为12.9 eV[12]。而本实验入射电子能量最大为1.5 keV,可利用公式(1)计算碰撞能量传递。
$$E_{\mathrm{A}}=2 E\left(E+2 m_{\mathrm{e}} c^2\right) /\left(M c^2\right)$$ (1) 式中:M为晶格原子静止质量;me为入射电子质量;E为入射电子能量;c为光速。
根据公式(1)计算可得,当入射电子能量为1.5 keV时,EA约为0.15 eV,远小于位移阈值能量Ed,并且在本实验中,电子轰击后暗电流有恢复至初始状态的趋势,这与晶格损伤为永久损伤的特性相悖,具体判断,本实验暗电流增加主要是由于钝化层与硅界面处缺陷增加所致。
3)界面缺陷密度增加对暗电流影响分析
根据Shockley-Read-Hall理论模型,界面缺陷态引起的电子产生率满足公式(2),而电子产生率与BCMOS图像传感器的暗电流成正比[11]。
$$ G = \left[ {\frac{{{\sigma _{\text{p}}}{\sigma _{\text{n}}}{\upsilon _{{\text{th}}}}{N_{\text{t}}}}}{{{\sigma _{\text{n}}}\exp \left( {\frac{{{E_{\text{t}}} - {E_{\text{i}}}}}{{KT}}} \right) + {\sigma _{\text{p}}}\exp \left( {\frac{{{E_{\text{i}}} - {E_{\text{t}}}}}{{KT}}} \right)}}} \right]{n_i} $$ (2) 式中:为电子产生率;σp是空穴俘获截面;σn是电子俘获截面;Nt是缺陷能级密度;υth是电子和空穴运动速率;Et是缺陷能级能量;Ei是硅的本征费米能级;K是玻尔兹曼常数;T是绝对温度;ni为本征载流子浓度。
由公式(2)可得,暗电流与缺陷态密度成正比,根据半导体物理理论[13],半导体表面缺陷态密度最大为1015原子/cm2,其存在最大值,这与实验中观察到的暗电流存在最大值的现象吻合,根据上述分析,入射电子引起氧化铝钝化层与硅界面处缺陷态增加,是引起上述现象的主要原因。
3. 结论
本文采用电子束密度为40 nA/cm2,电子能量为300~1500 eV的电子束对厚度为10 nm的氧化铝钝化层的BCMOS图像传感器开展电子轰击实验,首先根据实验结果得,当电子能量超过600 eV时,入射电子会造成BCMOS图像传感器暗电流增加,且随着入射电子能量增加,暗电流增加速率增加,其暗电流存在最大值,约为12000 e-/pixel/s;然后根据蒙特卡洛仿真结果分析指出入射电子能量为300 eV时,电子无法达到氧化铝与硅界面,而当入射电子能量达到600 eV时,入射电子可到达氧化铝与硅界面;之后根据电子轰击硅晶格能量传递计算判断,入射能量≤1.5 keV时电子碰撞不会造成硅晶格损伤;最后根据Shockley-Read-Hall理论分析指出入射电子引起氧化铝钝化层与硅界面处缺陷态增加,是引起上述现象的主要原因。
-
表 1 模型训练超参数设置
Table 1 Model training hyperparameter settings
Hyperparameter options Setting Input Resolution 640×640 Initial Learning Rate 0 (lr0) 0.01 Learning Rate Float (lrf) 0.01 Momentum 0.937 Weight_Decay 0.0005 Batch_Size 4 Epochs 200 表 2 不同数据集上消融实验结果对比
Table 2 Comparison of ablation experiment results on different datasets
Models 1 Params/M GFLOPs Precision /% 2 Recall /% 2 mAP@0.5 /% 2 B D C S D1 D2 D3 D1 D2 D3 D1 D2 D3 √ 3.2 8.2 74.5 94.1 73.2 68.6 90.0 43.5 77.2 97.6 60.5 √ √ 3.4 8.3 80.1 94.5 74.4 74.3 90.2 43.9 79.5 98.0 61.3 √ √ 3.2 8.2 80.0 94.4 80.1 73.1 93.3 49.6 78.0 97.9 62.8 √ √ 3.2 8.2 80.3 95.7 73.8 75.5 94.7 68.1 80.8 97.8 64.3 √ √ √ 3.4 8.3 80.5 94.3 71.7 75.2 93.3 69.8 80.5 98.2 67.6 √ √ √ 3.4 8.3 80.8 98.5 69.3 75.5 96.3 68.0 81.5 98.3 68.1 √ √ √ 3.2 8.2 81.2 99.5 69.5 75.6 95.4 72.1 82.0 98.0 70.5 √ √ √ √ 3.4 8.3 81.1 99.3 73.5 75.7 95.9 70.5 83.1 98.5 71.3 1 B: Base(Yolov8n), D: DCN_C2f, C: CA, S: SIoU. 2 D1: FLIR, D2: OTCBVS, D3: VEDAI. 表 3 不同模型的目标检测实验结果
Table 3 Results of different object detection model
Models Params/M GFLOPs mAP@0.5/%1 Inference/(ms) 1 D1 D2 D3 D1 D2 D3 Faster R-CNN 15.8 28.3 71.1 87.8 52.4 30.4 102.3 63.1 YOLOv3_tiny 8.7 13.0 74.2 90.5 58.1 12.6 37.1 21.3 YOLOv5n 7.0 16.0 75.1 95.8 59.3 6.9 25.1 11.7 YOLOv8n 3.2 8.2 77.2 97.6 67.5 7.1 23.7 9.9 YOLOv8s 11.2 28.8 79.3 98.1 71.5 10.8 29.8 12.3 YOLOv8m 25.9 79.1 81.5 98.5 72.6 20.5 41.0 15.2 YOLOv8l 43.6 165.4 82.7 98.9 74.8 35.1 52.5 19.5 YOLOv8x 68.2 258.1 84.5 99.1 76.9 47.5 70.6 27.1 DCS-YOLOv8n 3.4 8.3 83.1 98.5 72.5 7.1 22.9 10.6 DCS-YOLOv8s 11.3 29.2 85.2 98.9 73.8 10.9 28.7 13.1 DCS-YOLOv8m 25.9 79.5 87.4 99.2 75.9 20.6 38.1 16.4 DCS-YOLOv8l 43.8 165.8 88.1 99.3 77.2 35.3 50.4 21.0 DCS-YOLOv8x 69.1 258.5 88.6 99.3 78.6 47.9 62.7 29.1 1 D1: FLIR, D2: OTCBVS, D3: VEDAI. -
[1] 韩金辉, 魏艳涛, 彭真明, 等. 红外弱小目标检测方法综述[J]. 红外与激光工程, 2022, 51(4): 438-461. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202204050.htm HAN J H, WEI Y T, PENG Z M, et al. Infrared dim and small target detection: a review[J]. Infrared and Laser Engineering, 2022, 51(4): 438-461. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202204050.htm
[2] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[3] ZHAO M, LI W, LI L, et al. Single-frame infrared small-target detection: a survey[J]. IEEE Geoscience and Remote Sensing Magazine, 2022, 10(2): 87-119. DOI: 10.1109/MGRS.2022.3145502
[4] Girshick R. Fast R-CNN[C]//IEEE International Conference on Computer Vision (ICCV), 2015: 1440-1448.
[5] Gavrilescu R, Zet C, Fosalau C, et al. Faster R-CNN: an approach to real-time object detection[C]//Proc of International Conference and Exposition on Electrical and Power Engineering, 2018: 165-168.
[6] CAI Z, Vasconcelos N. Cascade R-CNN: delving into high quality object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 6154-6162.
[7] HE Kaiming, Gkioxari Georgia, Dollar Piotr, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327. DOI: 10.1109/TPAMI.2018.2858826
[8] WEI Liu, Dragomir Anguelov, Dumitru Erhan, et al. SSD: single shot multibox detector[J]. arXiv, 2015: 1512.02325.
[9] Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016: 779-788.
[10] Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv, 2018: 1804.02767.
[11] Krizhevsky A, Sutskever I, Hinton Ge. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90. DOI: 10.1145/3065386
[12] 高昂, 梁兴柱, 夏晨星, 等. 一种改进YOLOv8的密集行人检测算法[J]. 图学学报, 2023, 44(5): 890-898. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX202305005.htm GAO A, LIANG X Z, XIA C X, et al. A dense pedestrian detection algorithm with improved Yolov8[J]. Journal of Graphics, 2023, 44(5): 890-898. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX202305005.htm
[13] 陈皋, 王卫华, 林丹丹. 基于无预训练卷积神经网络的红外车辆目标检测[J]. 红外技术, 2021, 43(4): 342-348. http://hwjs.nvir.cn/cn/article/id/8142853e-c38f-43ff-8915-4810e1948dc3?viewType=HTML CHEN G, WANG W H, LIN D D. Infrared vehicle target detection based on convolutional neural network without pre-training[J]. Infrared Technology, 2021, 43(4): 342-348. http://hwjs.nvir.cn/cn/article/id/8142853e-c38f-43ff-8915-4810e1948dc3?viewType=HTML
[14] 周颖, 颜毓泽, 陈海永, 等. 基于改进YOLOv8的光伏电池缺陷检测[J]. 激光与光电子学进展, 2024, 61(8): 0812008. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202408025.htm ZHOU Y, YAN Y Z, CHEN H Y et al. Defect detection of photovoltaic cells based on improved Yolov8[J]. Laser & Optoelectronics Progress, 2024, 61(8): 0812008. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202408025.htm
[15] HOU L, LU K, XUE J, et al. Cascade detector with feature fusion for arbitrary-oriented objects in remote sensing images[C]//IEEE International Conference on Multimedia and Expo, 2020: 1-6.
[16] XU D, WU Y. FE-YOLO: A feature enhancement network for remote sensing target detection[J]. Remote Sensing, 2021, 13(7): 1311. DOI: 10.3390/rs13071311
[17] LIU W, MA L, WANG J, et al. Detection of multiclass objects in optical remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 16(5): 791-795.
[18] HU J, ZHI X, SHI T, et al. PAG-YOLO: a portable attention-guided YOLO network for small ship detection[J]. Remote Sensing, 2021, 13(16): 3059. DOI: 10.3390/rs13163059
[19] CHEN L, SHI W, DENG D. Improved YOLOv3 based on attention mechanism for fast and accurate ship detection in optical remote sensing images[J]. Remote Sensing, 2021, 13(4): 660. DOI: 10.3390/rs13040660
[20] Gevorgyan Z. Siou Loss: More powerful learning for bounding box regression[J]. arXiv, 2022: 2205.12740.
[21] XU Z, XU X, WANG L, et al. Deformable convnet with aspect ratio constrained NMS for object detection in remote sensing imagery[J]. Remote Sensing, 2017, 9(12): 1312-1331. DOI: 10.3390/rs9121312
[22] LI C, LUO B, HONG H, et al. Object detection based on global-local saliency constraint in aerial images[J]. Remote Sensing, 2020, 12(9): 1435-1457. DOI: 10.3390/rs12091435
[23] ZHENG Z, ZHONG Y F, MA A L, et al. HyNet: hyper-scale object detection network framework for multiple spatial resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 166: 1-14. DOI: 10.1016/j.isprsjprs.2020.04.019
[24] 王建军, 魏江, 梅少辉, 等. 面向遥感图像小目标检测的改进YOLOv3算法[J]. 计算机工程与应用, 2021, 57(20): 133-141. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202120016.htm WANG J J, WEI J, MEI S H, et al. Improved Yolov3 for small object detection in remote sensing image[J]. Computer Engineering and Applications, 2021, 57(20): 133-141. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202120016.htm
[25] 张瑶, 潘志松. GP-YOLOX: 无预训练的轻量级红外目标检测模型[J]. 计算机技术与发展, 2022, 32(12): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ202212025.htm ZHANG Y, PAN Z S. GP-YOLOX: Light-weight infrared object detection model without pre-training[J]. Computer Technology and Development, 2022, 32(12): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-WJFZ202212025.htm
[26] DAI J, QI H, XIONG Y, et al. Deformable Convolutional Networks[C]//IEEE International Conference on Computer Vision (ICCV), 2017: 764-777.
[27] DENG L, GONG Y, LU X, et al. Focus-enhanced scene text recognition with deformable convolutions[C]//Proceedings of the 5th International Conference on Computer and Communications, 2019: 1685-1689.
[28] XI W, SUN L, SUN J. Upgrade your network in-place with deformable convolution[C]//Proceedings of the 19th International Symposium on Distributed Computing and Applications for Business Engineering and Science, 2020: 239-242.
[29] LIN T, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327. DOI: 10.1109/TPAMI.2018.2858826
[30] RAZAKARIVONY S, JURIE F. Vehicle detection in aerial imagery: A small target detection benchmark[J]. Journal of Visual Communication and Image Representation, 2016, 32(1): 187-203.
-
期刊类型引用(1)
1. 王瑜佩. 基于噪声测试的数字化电能表计量性能检测方法. 电声技术. 2024(12): 139-141 . 百度学术
其他类型引用(0)