Defect Detection of Photovoltaic Panel Based on Multisource Image Fusion
-
摘要: 传统光伏面板缺陷检测任务以人工目视方法为主,存在效率低、精度差、成本高等问题。提出基于深度学习的融合光伏面板可见光图像与红外图像的缺陷检测网络,即多源图像融合网络(Multi-source Fusion Network, MF-Net),实现光伏面板的缺陷检测。MF-Net以YOLOv3 tiny为主干结构,并针对光伏面板缺陷特征进行网络结构改进。其中包括:在特征提取模块中增加网络深度并融入密集块结构,使得MF-Net能够融合更多高层语义信息的同时增强特征的选择;将双尺度检测增加为三尺度检测,以提高网络对不同尺寸缺陷的适用度。此外,提出自适应融合模块,使特征图融合过程中可以根据像素邻域信息自适应分配融合系数。实验结果表明,相比基于YOLOv3 tiny的融合网络,改进后的融合检测网络mAP提高7.41%;自适应融合模块使mAP进一步提升2.14%,且自适应融合模块能够有效提高特征的显著性;在与单一图像(仅有可见光图像或红外图像)的检测网络及其他融合图像检测网络的对比实验中,所提出的网络F1 score最高(F1=0.86)。Abstract: This study proposed a multisource fusion network (MF-Net) that combines visible and infrared images for the inspection of a photovoltaic panel to achieve photovoltaic panel defect detection, defect classification, and localization. The limitations of the traditional methods include low efficiency, low accuracy, and high cost. In this study, a defect detection network was designed based on the backbone of YOLOv3-tiny. Deep layers are added to the network, constituting a dense block structure to augment semantic information on fused feature maps. The detection scale of the network was extended to improve its applicability at different scales. In addition, an adaptive weight fusion strategy was proposed to achieve feature map fusion, where the fusion coefficients can be allocated according to the pixel neighborhood information. Compared with the backbone, the results show that the mAP of our network improved by 7.41%. The performance improves (by approximately 2.14% mAP) when the weighted fusion strategy is replaced with ours, and the significance of the features can be effectively improved. Relative to other networks, the proposed network that takes the fused images as the input has the highest performance in terms of the F1 score (F1=0.86).
-
Keywords:
- photovoltaic panel /
- image fusion /
- defect detection /
- visible image /
- infrared image
-
0. 引言
红外热成像技术因不受昼夜影响、识别性高等优点已被广泛应用于安防监控、智能家居、异常监测等领域[1]。越来越多的系统基于过热目标与异常侵入目标的检测从而实现异常检测与报警的功能,达到预防灾难、规避风险的目的[2-3]。
根据不同的分类方式,热红外异常目标检测可得到不同的分类效果,其中最常见的一种分类方式是根据检测与跟踪的先后顺序进行划分,可分为先检测后跟踪DBT(Detect Before Track)和先跟踪后检测TBD(Track Before Detect)两大类[4-5]。常见的DBT算法包括背景减除法、帧间差分法、光流法、小波变换、形态学滤波、基于神经网络和遗传算法等方法[6-8]。TBD方法主要用于弱小目标检测[9],然而其需要基于多帧图像对潜在目标进行跟踪,算法复杂,实时性无法达到要求。因此,在实时性要求高的系统中最常用的方法为背景减除法与帧间差分法[10]。背景减除法常利用多帧数据构造背景模型,利用当前帧与背景帧的差值图像进行判决处理,确定是否存在目标。帧间差分法原理与背景减除法类似,该方法利用当前帧的前一帧作为背景,克服了背景变化的局限性,但该方法对静止目标检测时会造成空洞等现象。基于单高斯模型的检测算法利用高斯函数建立背景模型,既能自适应的更新背景模型,也能克服帧差法的局限性,使检测效果更好[11-12]。以上方法在进行判决时,阈值通常根据均值与方差或以往经验确定,因此阈值的不确定性会使检测性能受到影响。
本文在单高斯模型基础上,提出一种改进的检测算法。该算法通过单高斯模型初始化背景,再通过奈曼-皮尔逊准则确定初始最佳判决阈值,使判决出错的概率达到最小,从而使检测性能达到最优。最后通过德国HEIMANN公司型号为HTPA80x64dR1L5.0/1.0的热电堆阵列传感器获取数据,从而对本文算法进行性能验证。
1. 算法描述
1.1 单高斯模型
单高斯模型是一种在运动目标检测过程中提取背景和前景的方法[13-14]。单高斯背景模型认为,对于背景图像,各个像素的灰度值分布满足高斯分布,在这一先验知识的基础上,即每个像素点服从正态分布,如下公式:
$$P({x_{ij}}) = \frac{1}{{\sqrt {2{\rm{ \mathsf{ π} }}\sigma _{ij}^2} }}\exp ( - \frac{{{{({x_{ij}} - {\mu _{ij}})}^2}}}{{2\sigma _{ij}^2}})$$ (1) 式中:xij表示坐标为(i, j)的像素点的灰度值;μij表示该像素灰度值的均值;σij2表示该像素灰度值的方差;P(xij)表示像素(i, j)灰度值的概率分布。
基于单高斯建模的异常目标检测主要有3个步骤:背景建模、目标检测和模型更新[12]。
背景建模最常见的方法就是利用前N帧的均值和方差作为单高斯模型的参数,每个像素点的参数均不一样。建立好高斯模型后,设定一个概率阈值,将待检测的图像的灰度值代入到对应像素的高斯模型,若概率值大于设定阈值,将其判定为前景像素点,反之即为背景像素点,其中设定的概率阈值一般根据经验获得。随着时间的推移,背景可能会发生一些变化,因此需要自适应更新背景。背景更新的原则为:若像素点为前景像素点,则背景保持不变,若该像素为背景时,则按以下公式进行更新:
$$\mu _{ij}^{n + 1} = (1 - \alpha )\mu _{ij}^n + \alpha x_{ij}^{n + 1}$$ (2) $${(\sigma _{ij}^{n + 1})^2} = (1 - \alpha ){(\sigma _{ij}^n)^2} + \alpha {(\mu _{ij}^{n + 1} - x_{ij}^{n + 1})^2}$$ (3) 式中:μijn+1和(σijn+1)2表示更新后的均值和方差;α表示背景更新参数,取值为0~1之间,当α取值越大,则表示背景变化速度越快,该值也是一个经验值。
在检测判决的时候,概率阈值的选取往往通过经验值获得[15],若选择阈值偏大,则很容易将异常像素点判决为正常,导致漏警率增加。若选择阈值偏小,则容易将正常像素点判决为异常像素点,导致虚警率增加。这两种错误判决概率都会影响系统的性能。
1.2 假设检验理论
在异常检测时,各个像素点只有两种可能状态,一种是前景,一种是背景,该问题即为二元信号检测问题[16-17]。假设正常状态为H0,则异常状态为H1,输出信号经概率转移机构以一定的概率映射到观测空间R中,观测空间R又可划分为两个判决区域R0和R1。在检测判决时,正常状态下的像素点可被系统判决为正常和异常两种状态,因此,对像素点正常和异常的判决结果共有4种可能性,表 1即为二元信号检测判决结果:
表 1 二元信号检测判决结果Table 1. Judgment results of binary signal detectionJudgment Assumption H0 H1 H0 (H0/H0) (H0/H1) H1 (H1/H0) (H1/H1) 表中展示了4种可能判决结果,(Hi/Hj)表示将结果Hj判决为Hi,其中i, j∈[0, 1]。每个判决结果对应相应的判决概率,其中P(Hi/Hj)表示假设Hj为真时,判决假设Hi成立的概率。其中观测值(x/Hj)落在区域Ri时,Hi假设成立,概率表示如下:
$$P({H_i}/{H_j}) = \int\limits_{{R_i}} {P(x/{H_j})} {\rm{d}}x\;\;\;\;\;\;i,j \in [0,1]$$ (4) 在以上4种判决结果中,只有两种是正确的判决概率,另外两种是错误判决概率。其中P(H1/H0)表示将正常的观测值判决为异常,此概率为虚警率,P(H0/H1)表示将异常的观测值判决为正常,此概率为漏警率。
假设H0与H1均服从高斯分布,x为判决门限。图 1为检测判决结果示意图。
图中左边的曲线为H0的分布,从图中可以看出,若判决门限增大,虚警率会降低,但漏警率会增加,虚警率与漏警率无法同时达到最小。因此,如何确定最佳门限使错误概率达到最小,正确概率达到最大是一个研究难点。
1.3 奈曼-皮尔逊准则
为了提高系统检测性能,使漏警率与虚警率达到最小。本文在单高斯模型的基础上,利用奈曼-皮尔逊准则确定检测判决初始阈值。该准则在P(H1/H0)=α的约束条件下,使正确判决概率P(H1/H1)最大,即等价于使漏警率P(H0/H1)最小。利用拉格朗日乘子μ(μ≥0)构建目标函数:
$$ \mathit{J} = \mathit{P}({\mathit{H}_0}/{\mathit{H}_1}) + \mathit{\mu }[\mathit{P}({\mathit{H}_1}/{\mathit{H}_0}) - \mathit{\alpha }] $$ (5) 在P(H1/H0)=α的约束条件下,使错误判决概率P(H0/H1)最小,即求目标函数J的最小值,将公式(5)转化为积分运算得:
$$J = \int\limits_{{R_0}} {P(x/{H_1})} {\rm{d}}x{\rm{ + }}\mu [\int\limits_{{R_1}} {P(x/{H_0})} {\rm{d}}x - \alpha ]$$ (6) 将:
$$\int\limits_{{R_1}} {P(x/{H_0})} {\rm{d}}x = 1 - \int\limits_{{R_0}} {P(x/{H_0})} {\rm{d}}x$$ (7) 代入公式(6)可得:
$$ J=\mu (1-\alpha )+{\displaystyle \underset{{R}_{0}}{\int }[P(x/{H}_{1})-\mu P(x/{H}_{0})}]{\rm{d}}x$$ (8) 要使J达到最小,被积函数应该取负值。此时可得到判决表达式如下:
$$\frac{{P(x/{H_1})}}{{P(x/{H_0})}}\mathop \gtrless \limits_{{H_0}}^{{H_1}} \mu $$ (9) 式中,判决门限μ可由约束条件得到:
$$P({H_1}/{H_0}) = \int\limits_{{R_1}} {P(x/{H_0})} {\rm{d}}x = \int_\mu ^{ + \infty } {P(x/{H_0})} {\rm{d}}x = \alpha $$ (10) 该准则通过理论推导确定最佳阈值,很好地解决了依靠经验获取阈值的问题,提高了系统的可移植性与适用性,使正确判决概率P(H1/H1)在虚警率一定的情况下达到最大。
2. 实验与性能分析
本研究采用德国HEIMANN型号为HTPA 80x64dR1L5.0/1.0的热电堆阵列传感器,它是一款64行80列的红外阵列传感器,该传感器的输出经过双线性插值后为目标温度值(℃)。实验时首先需要获取静止场景下的多帧数据,利用公式(1),选择100帧数据获取各个像素点的均值和方差,构建高斯背景模型;然后选择不同的阈值进行判决,验证不同阈值对检测性能的影响;最后通过判决后的二值图像直观地观察检测效果,并通过计算漏警率、虚警率与准确率来客观地评价算法性能。
2.1 二值图像
本文通过模拟视频监控的场景,将传感器置于墙壁上,用传感器获得多组监测数据,再用不同的阈值对其进行判决处理。首先选择常见的判决阈值均值与方差和、均值与两倍方差和进行判决处理,然后在虚警率为0.01的约束下,根据本文算法获得判决阈值,再进行判决,比较判决结果。图 2中(a)和(e)分别为两组数据的原始灰度图像,其他则为二值图像。
从图 2中可以看出,本文所用传感器噪声较大,系统很容易将背景点误判为前景点。(b)、(e)、(f)、(g)中众多背景像素均被判为前景像素,检测效果略差。而本文所选阈值大大降低了这种错误概率,虽然仍存在部分背景点被误判为前景点,但这种错误概率明显降低,从二值图像中能较好地发现目标。
2.2 检测性能
为了进一步客观地描述检测性能,本文先获取图像中前景所占像素个数P与背景像素的个数N。经过判决后,将前景判决为前景的像素个数记为TP,将前景判断为背景的像素个数记为FN,将背景判决为背景的个数记为TN,将背景判断为前景的像素个数记为FP。因此可以通过准确率、漏警概率与虚警概率客观的评判检测性能。
其中准确率表示判决正确的比例,可用A表示,定义如下:
$$A = \frac{{{T_P} + {T_N}}}{{P + N}}$$ (11) 漏警概率表示将前景像素点判决错误的概率,可用MA表示,定义如下:
$${M_A} = \frac{{{F_N}}}{{{T_P} + {F_N}}}$$ (12) 虚警概率表示将背景像素点判决错误的概率,可用FA表示,定义如下:
$${F_A} = \frac{{{F_P}}}{{{T_P} + {F_P}}}$$ (13) 选择图 2中的第一个场景为例,通过分析原始数据的多帧数据均值可得到场景中背景像素点有5025个,前景像素点有95个。利用不同的阈值进行判决并分析检测结果,为了避免结果的随机性,此次实验选择100检测结果的均值作为最终检测结果。表 2为不同阈值的检测判决结果。
表 2 不同阈值的检测判决结果Table 2. Detection and judgment results of different thresholdsThreshold TP TN FP FN A MA FA Threshold1 93 3259 1766 2 0.6547 0.0211 0.9499 Threshold2 88 4511 514 7 0.8982 0.0737 0.8538 Threshold3 75 4959 80 20 0.9805 0.2105 0.5161 表中阈值1表示均值与方差和,阈值2表示均值与两倍方差和,与二值图像的判决阈值一致,由单高斯模型所得,阈值3表示根据奈曼-皮尔逊准则获得的阈值。从表中可以看出,根据阈值3判决后的二值图像,FP从1766降低为80,准确率也从0.6547提升到0.9805,虽然MA增大了一点点,但FA显著降低了,即错误概率整体下降了。因此,在这3个阈值中,阈值3的判决效果最好,即通过本文算法确定的阈值能提高检测概率,使错误判决概率达到最小。
3. 结论
本文在基于单高斯模型的异常目标检测算法的基础上,提出了一种基于奈曼-皮尔逊准则的最佳阈值选取算法。本文首先通过实验对背景进行高斯建模,再利用该准则求出最佳判决阈值,最后通过对比不同的阈值判决结果,根据主观和客观评价得出本文算法所确定的阈值能较好地区分前景与背景的结论。该算法为阈值选取奠定了理论基础,得到的二值图像也利于红外图像的识别与跟踪,为后续的应用做出了贡献。虽然本文所用传感器在实际应用中噪声太大,导致判决错误的概率大大增加,但在本文阈值的判决下,系统仍能够清晰地区分前景和背景。
-
图 9 基于单一图像或多源图像对不同缺陷的检测结果对比
((a)基于可见光图像检测结果;(b)基于红外图像检测结果;(c)本文方法检测结果;(d)实际缺陷类型及位置)
Figure 9. Comparison of detection results of different defects based on single image or multi-source image
((a) Detection results based on visible image; (b) Based on infrared image detection results; (c) Detection results of this method; (d) Actual defect type and location)
表 1 改进前后网络模型对比
Table 1 Comparison parameters of network model before and after improvement
Network model Model size/Mb FLOPS/Gb YOLOv3 245.3 63.20 YOLOv3 tiny 33.4 5.56 MF-Net 35.6 6.02 表 2 数据集分配统计
Table 2 Distributions of our dataset
Number of images/pairs Crazing Shadow Covering Bubble Internal Filtered images 659 103 398 367 96 403 Enhanced images 1000 544 552 534 537 565 Training set 700 366 363 349 356 371 Validation set 100 60 63 61 59 64 Test set 200 118 126 124 122 130 表 3 网络训练参数
Table 3 Network training parameters
Parameter Value Parameter Value Input size 416×416 Epoch 200 Batch size 2 Momentum 0.9 Learning rate 0.0005 Confidence 0.65 表 4 消融实验结果
Table 4 Results of ablation experiences
S/N Replace Conv. Three scale detection Dense Block mAP FPS 1 75.93% 11.23 2 √ 82.02%(+6.09%) 8.13(-3.10) 3 √ 76.21%(+0.28%) 9.43(-1.80) 4 √ 80.96%(+5.03%) 11.36(+0.13) 5 √ √ √ 83.34%(+7.41%) 7.41(-3.82) 表 5 不同网络框架对比评估
Table 5 Comparative evaluation of different networks
S/N Model Input Correct detection Correct classification FPS F1 score 1 Improved YOLOv3 tiny Visible image 320 297 12.61 0.53 2 Improved YOLOv3 tiny Infrared image 497 103 12.63 0.17 3 MF-Net and channel addition strategy Multi-source image 553 516 7.41 0.82 4 SSD Multi-source image 512 446 1.31 0.72 5 Ours Multi-source image 559 538 7.39 0.86 -
[1] Alves R H F, Deus Júnior G A, Marra E G, et al. Automatic fault classification in photovoltaic modules using Convolutional Neural Networks[J]. Renewable Energy, 2021, 179: 502-516. DOI: 10.1016/j.renene.2021.07.070
[2] 闫冯渊. 实用化光伏组件监测电路研制[D]. 北京: 华北电力大学, 2021. YAN Fengyuan. Development of Practical Monitoring Circuit For Photovoltaic Modules[D]. Beijing: North China Electric Power University, 2021.
[3] 林剑春, 杨爱军, 沈熠辉. 电致发光缺陷检测仪的成像性能评估[J]. 光学精密工程, 2017, 25(6): 1418-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM201706003.htm LIN Jianchun, YANG Aijun, SHEN Yihui. Evaluation of imaging performance for electroluminescence defect detector[J]. Optics and Precision Engineering, 2017, 25(6): 1418-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM201706003.htm
[4] LI X, LI W, YANG Q, et al. An unmanned inspection system for multiple defects detection in photovoltaic plants[J]. IEEE Journal of Photovoltaics, 2020, 10(2): 568-576. DOI: 10.1109/JPHOTOV.2019.2955183
[5] Espinosa A R, Bressan M, Giraldo L F. Failure signature classification in solar photovoltaic plants using RGB images and convolutional neural networks – Science Direct[J]. Renewable Energy, 2020, 162: 249-256. DOI: 10.1016/j.renene.2020.07.154
[6] 邓堡元, 何赟泽, 王洪金, 等. 光伏电池图像序列的深度学习检测方法[J]. 机械工程学报, 2021, 57(8): 98-106. https://www.cnki.com.cn/Article/CJFDTOTAL-JXXB202108009.htm DENG Baoyuan, HE Yunze, WANG Hongjin, et al. Deep learning inspection for photovoltaic cell image sequence[J]. Journal of Mechanical Engineering, 2021, 57(8): 98-106. https://www.cnki.com.cn/Article/CJFDTOTAL-JXXB202108009.htm
[7] 孙智权, 周奇, 陈震, 等. 基于CMOS图像传感器的太阳能电池缺陷检测系统设计[J]. 仪表技术与传感器, 2018(1): 60-63. DOI: 10.3969/j.issn.1002-1841.2018.01.015 SUN Zhiquan, ZHOU Qi, CHEN Zhen, et al. Design of solar cell defects detection system based on CMOS image sensor[J]. Instrument Technique and Sensor, 2018(1): 60-63. DOI: 10.3969/j.issn.1002-1841.2018.01.015
[8] HE Y, DU B, HUANG S. Noncontact electromagnetic induction excited infrared thermography for photovoltaic cells and modules inspection[J]. IEEE Transactions on Industrial Informatics, 2018, 14(12): 5585-5593. DOI: 10.1109/TII.2018.2822272
[9] 郭梦浩, 徐红伟. 基于Faster RCNN的红外热图像热斑缺陷检测研究[J]. 计算机系统应用, 2019, 28(11): 265-270. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYY201911039.htm GUO Menghao, XU Hongwei. Hot spot defect detection based on infrared thermal image and Faster RCNN[J]. Computer Systems & Applications, 2019, 28(11): 265-270. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYY201911039.htm
[10] 谢春宇. 基于红外与可见光双模图像融合的目标检测跟踪技术研究[D]. 南京: 东南大学, 2020. XIE Chunyu. Research on target detection and tracking technology based on infrared and visible dual mode image fusion[D]. Nanjing: Southeast University, 2020.
[11] SONG H, LIU Z, DU H, et al. Depth-aware salient object detection and segmentation via multiscale discriminative saliency fusion and bootstrap learning[J]. IEEE Transactions on Image Processing, 2017, 26(9): 4204-4216. DOI: 10.1109/TIP.2017.2711277
[12] 郑欣悦, 赖际舟, 吕品, 等. 基于红外视觉/激光雷达融合的目标识别与定位方法[J]. 导航定位与授时, 2021, 8(3): 34-41. https://www.cnki.com.cn/Article/CJFDTOTAL-DWSS202103007.htm ZHENG Xinyue, LAI Jizhou, LV Pin, et al. Object detection and positioning method based on infrared vision/lidar fusion[J]. Navigation Positioning & Timing, 2021, 8(3): 34-41. https://www.cnki.com.cn/Article/CJFDTOTAL-DWSS202103007.htm
[13] 康硕, 柯臻铮, 王璇, 等. 基于红外和可见光图像融合的铺丝缺陷检测方法[J]. 航空学报, 2021, 42(12): 425187. https://www.cnki.com.cn/Article/CJFDTOTAL-HKXB202203045.htm KANG Shuo, KE Zhenzheng, WANG Xuan, et al. Detection method of defects in automatic fiber placement based on infrared and visible image fusion[J]. Acta Aeronautica et Astronautica Sinica, 2021, 42(12): 425187. https://www.cnki.com.cn/Article/CJFDTOTAL-HKXB202203045.htm
[14] LIU D, ZHOU D, NIE R, et al. Infrared and visible image fusion based on convolutional neural network model and saliency detection via hybrid l0-l1 layer decomposition[J]. Journal of Electronic Imaging, 2018, 27(6): 063036. http://www.researchgate.net/publication/329955538_Infrared_and_visible_image_fusion_based_on_convolutional_neural_network_model_and_saliency_detection_via_hybrid_l0-l1_layer_decomposition
[15] 马旗, 朱斌, 程正东, 等. 基于双通道的快速低空无人机检测识别方法[J]. 光学学报, 2019, 39(12): 105-115. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201912012.htm MA Qi, ZHU Bin, CHENG Zhengdong, et al. Detection and recognition method of fast low-altitude unmanned aerial vehicle based on dual channel[J]. Acta Optica Sinica, 2019, 39(12): 105-115. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201912012.htm
[16] 白玉, 侯志强, 刘晓义, 等. 基于可见光图像和红外图像决策级融合的目标检测算法[J]. 空军工程大学学报: 自然科学版, 2020, 21(6): 53-59, 100. https://www.cnki.com.cn/Article/CJFDTOTAL-KJGC202006009.htm BAI Yu, HOU Zhiqiang, LIU Xiaoyi, et al. An object detection algorithm based on decision-level fusion of visible light image and infrared image[J]. Journal of Air Force Engineering University: Natural Science Edition, 2020, 21(6): 53-59, 100. https://www.cnki.com.cn/Article/CJFDTOTAL-KJGC202006009.htm
[17] 唐聪, 凌永顺, 杨华, 等. 基于深度学习的红外与可见光决策级融合检测(英文)[J]. 红外与激光工程, 2019, 48(6): 456-470. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201906045.htm TANG Cong, LING Yongshun, YANG Hua, et al. Decision-level fusion detection for infrared and visible spectra based on deep learning[J]. Infrared and Laser Engineering, 2019, 48(6): 456-470. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201906045.htm
[18] 刘家银, 印杰, 牛博威, 等. 海量网站中博彩类违法网站的捕获方法[J]. 数据采集与处理, 2021, 36(5): 1050-1061. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ202105021.htm LIU Jiayin, YIN Jie, NIU Bowei, et al. Capture methods of gambling related illegal websites in massive websites[J]. Journal of Data Acquisition and Processing, 2021, 36(5): 1050-1061. https://www.cnki.com.cn/Article/CJFDTOTAL-SJCJ202105021.htm
[19] DING S, LONG F, FAN H, et al. A novel YOLOv3-tiny network for unmanned airship obstacle detection[C]// IEEE 8th Data Driven Control and Learning Systems Conference (DDCLS), 2019: 277-281.
[20] HUANG G, LIU Z, Van Der Maaten L, et al. Densely connected convolutional networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4700-4708.
[21] Pech-Pacheco J L, Cristóbal G, Chamorro-Martinez J, et al. Diatom autofocusing in bright field microscopy: a comparative study[C]//Proceedings 15th International Conference on Pattern Recognition, 2000, 3: 314-317.
[22] JIANG Q, LIU Y, YAN Y, et al. A contour angle orientation for power equipment infrared and visible image registration[J]. IEEE Transactions on Power Delivery, 2020, 36(4): 2559-2569. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9149795
[23] DENG J, DONG W, Socher R, et al. Imagenet: A large-scale hierarchical image database[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition, 2009: 248-255.
-
期刊类型引用(4)
1. 崔丽群,李万欣. 改进Cascade R-CNN的X射线图像违禁品检测方法. 计算机仿真. 2025(03): 299-303 . 百度学术
2. 徐叶军. 基于多孔卷积神经网络的图像空间结构信息细节表征. 盐城工学院学报(自然科学版). 2024(01): 20-25 . 百度学术
3. 李立,易诗,刘茜,程兴豪,王铖. 基于密集残差生成对抗网络的红外图像去模糊. 红外技术. 2024(06): 663-671 . 本站查看
4. 张坤. 基于深度神经网络的图像技术在灰度图像彩色化进程中的应用研究. 自动化与仪器仪表. 2023(10): 27-30+35 . 百度学术
其他类型引用(5)