基于改进高斯卷积核的变电站设备红外图像检测方法

吴添权, 郭竞, 苟先太, 黄勤琴, 周维超

吴添权, 郭竞, 苟先太, 黄勤琴, 周维超. 基于改进高斯卷积核的变电站设备红外图像检测方法[J]. 红外技术, 2021, 43(3): 230-236.
引用本文: 吴添权, 郭竞, 苟先太, 黄勤琴, 周维超. 基于改进高斯卷积核的变电站设备红外图像检测方法[J]. 红外技术, 2021, 43(3): 230-236.
WU Tianquan, GUO Jing, GOU Xiantai, HUANG Qinqin, ZHOU Weichao. Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel[J]. Infrared Technology , 2021, 43(3): 230-236.
Citation: WU Tianquan, GUO Jing, GOU Xiantai, HUANG Qinqin, ZHOU Weichao. Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel[J]. Infrared Technology , 2021, 43(3): 230-236.

基于改进高斯卷积核的变电站设备红外图像检测方法

基金项目: 

四川省人工智能重大专项项目 2018GZDZX0043

中国南方电网科技项目 035100KK52190003

详细信息
    作者简介:

    吴添权(1977-),男,广东潮州人,高级工程师,主要从事电气设备试验工作,主要研究方向为电气试验技术

    通讯作者:

    苟先太(1971-),男,四川三台人,副教授,博士,主要研究方向为电网智能化、人工智能技术。E-mail: 491098063@qq.com

  • 中图分类号: TM727

Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel

  • 摘要: 在无锚点算法CenterNet模型的基础上,针对基于红外图像的目标检测算法检测精度低、耗时长的问题,给出了一种基于改进高斯卷积核的变电站设备红外图像检测方法,该目标检测方法模型网络结构精简,模型计算量较小。通过现场变电站巡检机器人设备收集数据样本,进行算法模型的训练及验证,实现红外图像变电站设备精准识别及定位。本文以变电站巡检机器人搭配红外热成像仪采集到的红外图像库为基础,用深度学习方法对数据集进行训练和测试,研究变电站红外图像的目标检测技术。通过深度学习技术判断设备中心点位实现目标分类和回归。实验结果表明,该方法提高了变电站目标检测方法的识别定位精度,为变电站设备红外图像智能检测提供了新的思路。
    Abstract: Slow and inaccurate target detection algorithms used to analyze infrared images are the focus of this study. An infrared image detection method is proposed for substation equipment using an improved Gaussian convolution kernel, which is based on the CenterNet algorithm without an anchor point. In brief, data samples were first collected using on-site substation inspection robot equipment, the algorithm model was trained and verified, and finally, accurate identification and positioning of infrared image substation equipment was achieved. Specifically, based on the infrared image library collected by the substation inspection robot and the infrared thermal imager, methods of deep learning were applied to train and test a model using the dataset, the target detection technology of substation infrared images was studied, and the equipment center was accurately judged through deep learning technology to achieve target classification and regression. The identification and positioning accuracy of the substation target detection were improved by adopting this proposed method, and it provides new ideas for the intelligent detection of infrared images for substation equipment.
  • 目标检测一直以来都是计算机视觉领域的研究重点[1],也是计算机视觉领域的难点[2]之一。在工业生产、无人驾驶、视频监控等领域都有广泛应用[3]。红外图像目标检测系统具有抗干扰性、全天候工作等特点,在电力行业发挥了重要的作用,红外图像检测质量将直接影响电网系统正常工作的有效作用距离、监控设备及人员的配置,在红外图像预警系统中发挥着至关重要的作用。

    在设备采集的过程中,红外图像分辨率受环境因素(大气吸收和散射)的影响,不能还原真实分辨率,对比度表现效果不足,不能完全反映待检测目标的纹理信息[4]。通过传统机器学习方法不能精准分类识别户外一次设备[5]缺陷,同时受到其他环境因素及非一次运行设备发热点影响,易造成误判断。

    传统的目标检测方法提出使用一些特征描述来检测目标[6],取得了一些效果但是检测精度太低,在真实变电站场景下不具备广泛适用性,不能满足实践需求。

    在没有结合深度学习以前,传统的目标检测方法主要有两大类:目标实例检测和传统的目标类别检测[7]。2014年以来,主要有两类目标检测方法:one-stage类别的目标检测方法和two-stage类别的目标检测方法。目前常用的典型one-stage网络有(You Only Look Once,YOLO)[8]、YOLO9000[9]、YOLO v3[9]结合YOLO和(Regions with Convolutional Neural Networks,RCNN)模型特点的(Single Shot MultiBox Detector,SSD)[10]系列。常用的典型two-stage网络有RCNN[11]系列。不管two-stage方法还是one-stage方法都各有优劣。受限于模型的架构大小和检测标准要求,这两类方法在实际场景中的应用达不到预期的效果。

    2019年4月,中科院联合牛津大学、华为诺亚方舟实验室在已有基础上提出了新的检测方法CenterNet[12]。该方法提供了一种新的思路,将物体检测的问题转换为中心关键点的检测,在目标不完整的前提下就能获得感知物体内部信息的能力,模型结构简单直接,对计算能力的要求较小,在数据集(Common Objects in Context,COCO)上,检测准确率达到47%,领先以往one-stage算法的幅度至少达4.9%,是目标检测现阶段算法中性能最好的方法。

    目前应用于变电站设备检测的CenterNet模型研究还处于初级阶段。因此,本文在CenterNet模型的基础上,研究变电站红外图像的目标检测技术,针对基于红外图像的目标检测算法检测精度低的问题,给出基于改进高斯卷积核的变电站设备红外图像检测方法,该目标检测方法模型网络结构精简,模型计算量较小,从而实现红外图像中变电站设备中心点位及目标分类,提高一次设备和关键点位[13]的识别定位的精准度。通过收集现场变电站设备红外热图像数据样本,训练及验证算法模型,最终实现红外图像变电设备目标检测。

    通过巡检机器人搭配红外热成像仪器对变电站设备进行红外图像采集,对得到的红外图像通过(Open Source Computer Vision Library,OpenCV)技术进行数据预处理,包括翻转变换、随机修剪、旋转变换、仿射变换、尺度变换等操作。为后续送入无锚点深度学习模型训练做充足准备。

    训练使用的变电站红外数据集一共有1570张图像,分为10类目标,图像分辨率640×480。如表 1所示。

    表  1  红外图像数据集
    Table  1.  Infrared image data set
    Classname Label name Picture numbers
    Arrester Arrester 123
    Breaker Breaker 166
    Current transformer Current transformer 137
    Disconnector Disconnector 73
    Electricreactor Electricreactor 150
    Voltage transformer Voltage transformer 303
    Aerial conductor Aerial conductor 86
    Condenser Condenser 236
    Main transformer Main transformer 224
    Tubular busbar Tubular busbar 72
    下载: 导出CSV 
    | 显示表格

    图 1中可以看到,变电站设备红外图像数据集具有以下特点:目标部分信息丢失,看不到目标整体轮廓;图像失焦,几乎没有较大像素值之间的变化,对比度较差,温度区间界限不明显;红外图像中设备被探测设备实时显示数据遮挡;红外图像中设备类型多且复杂[15]。对于以上特点,用现有的目标检测算法对红外图像中的设备识别有较大难度。

    图  1  训练数据集部分样本
    Figure  1.  Somesamples of the training data set

    基于无锚点方法的CenterNet网络目标检测流程如图 2所示。

    图  2  目标检测流程图
    Figure  2.  Flow chart of target detection

    得到一些预测参数:预测中心点的heatmap以及基于中心点(x, y)的预测框宽w和高h。整个模型除了识别属性类别以外,只对x, y, w, h进行回归,即中心点(x, y)以及(w, h)。

    通过主网络得到图像的特征图,再通过高斯核函数[16]将关键点分布到特征图上。根据特征图上的值筛选出100个大于或者等于周围8个相邻点值的点作为初步预测的中心点;使用3×3的MaxPooling取100个中心点。

    通过网络预测出中心关键点的偏移量(i表示第i个目标):

    $$ \hat O{\rm{ = }}\left( {\delta {{\hat x}_i},\delta {{\hat y}_i}} \right) $$ (1)

    和当前点对应目标的长宽:

    $$ \hat S = \left( {{{\hat w}_i},{{\hat h}_i}} \right) $$ (2)

    得到预测的bounding box的坐标值(标定框):

    $$ \left[ {\left( {{{\hat x}_i} + \delta {{\hat x}_i} - \frac{{{{\hat w}_i}}}{2},{{\hat x}_i} + \delta {{\hat x}_i} - \frac{{{{\hat h}_i}}}{2}} \right),\left( {{{\hat y}_i} + \delta {{\hat y}_i} + \frac{{{{\hat w}_i}}}{2},{{\hat y}_i} + \delta {{\hat y}_i} + \frac{{{{\hat h}_i}}}{2}} \right)} \right] $$ (3)

    CenterNet将图像像素点和中心点结合使用。预测每一个像素点是否为物体中心,如果是的话,针对中心点预测物体边界。预测框的选择标准是,首先尽可能选择与标签图(Ground Truth,GT)有高交并比的预测框,以及满足GT的中心区域与预测框的中心区域重合,若以上条件都满足则选择该预测框,如图 3所示。

    图  3  通过中心点预测候选框
    Figure  3.  The candidate box is predicted by the center point

    输入红外图像I表示如下:

    $$ I \in R^{W \times H \times 3} $$ (4)

    式中:WH分别是红外图像的宽和高,目标输出则是生成关键点的热力图(key point heatmap)[17]

    $$ \hat Y \in {\left[ {0,1} \right]^{\frac{W}{R} \times \frac{H}{R} \times C}} $$ (5)

    式中:R是变换尺度,对应原图的步长;C是关键点类型数目(输出特征通道数、类别数),本次实验红外目标共10类,因此C=10;变换尺度R=4,且当${\hat Y_{x,y,c}} \approx 1$时表示在当前坐标(x, y)中检测到了这种类别的物体,存在检测的红外目标。

    ${\hat Y_{x,y,c}} \approx 0$表示当前坐标中不存在该类别的红外目标,即背景。

    对于每个标签图中类别数C,关键点p的计算方式:

    $$ p = \left( {\frac{{{x_1}{\rm{ + }}{x_{\rm{2}}}}}{{\rm{2}}}\frac{{{y_1}{\rm{ + }}{y_{\rm{2}}}}}{{\rm{2}}}} \right) $$ (6)

    计算下采样后的坐标$\tilde p$:

    $$ \tilde p = \left[ {\frac{p}{R}} \right] $$ (7)

    式中:R是下采样因子,R=4,最终计算出来的中心点是对应低分辨率的中心点。通过高斯核Yxyc计算将关键点分布到特征图上,如下所示:

    $$ {Y_{xyc}} = \exp \left( { - \frac{{{{\left( {x - {{\tilde p}_x}} \right)}^2} + {{\left( {y - {{\tilde p}_y}} \right)}^2}}}{{2{\sigma _p}^2}}} \right) $$ (8)

    计算损失函数,总的损失函数公式如下:

    $$ {L_{\det }} = {L_{\rm{k}}} + {\lambda _{{\rm{size}}}}{L_{{\rm{size}}}} + {\lambda _{{\rm{off}}}}{L_{{\rm{off}}}} $$ (9)

    式中:Lk表示中心点损失函数;Lsize表示目标大小的损失函数;Loff表示目标中心点偏置损失函数。λsizeλoff为权重系数,λsize=0.1,λoff=1。

    实验希望GT框和候选框左上角和右下角存在一个可控的误差范围,为了计算该范围,我们引入高斯核函数。设置热力图GT的时候,我们不能仅仅只在top-left/bottom-right的位置标签,如图 4所示。

    图  4  多个满足条件的候选框
    Figure  4.  Several candidate boxes that satisfy the criteria

    其中实线框为GT框,虚线框其实同样可以很好地包围目标。所以检测中只要预测的范围在top-left/bottom-right点的某一个半径r内,并且其与GTbox的交并比(Intersection over Union,IOU)大于阈值0.7,不直接将这些点的标签置为0,采用一种改进的二维高斯核,在原高斯散射核的热力图计算上加以改进。正常情况下,热力图在实际检测中是椭圆,调整半径计算方法。有3种情况,如图 5所示。

    图  5  预测框与GT box三种不同位置关系图
    Figure  5.  Three different position relation diagrams of prediction box and GT box

    首先确定高斯核半径r,以上3种情况整理为r的方程,overlap为预测框与GTbox的比值,如下所示:

    第一种情况:

    $$ {\rm{overlap}} = \frac{{h \times w}}{{\left( {h + 2r} \right)\left( {w + 2r} \right)}} $$ (10)
    $$ {r_1} = \frac{{\sqrt {h + w - 4\left( {1 - {\rm{overlap}}} \right)\left( {h \times w} \right)} }}{4}{\kern 1pt} {\kern 1pt} + \frac{{h + w}}{4} $$ (11)

    第二种情况:

    $$ {\rm{overlap}} = \frac{{\left( {h - 2r} \right)\left( {w - 2r} \right)}}{{h \times w}} $$ (12)
    $$ {r_2} = \frac{{\sqrt {{{\left( {h + w} \right)}^2} - 4\left( {1 - {\rm{overlap}}} \right)\left( {h \times w} \right)} }}{4}{\kern 1pt} + \frac{{h + w}}{4} $$ (13)

    第三种情况:

    $$ {\rm{overlap}} = \frac{{\left( {h - r} \right)\left( {w - r} \right)}}{{2 \times h \times w - \left( {h - r} \right)\left( {w - r} \right)}} $$ (14)
    $$ {r_3} = \frac{{\sqrt {{{\left( {h + w} \right)}^2} - \frac{{4\left( {1 - {\rm{overlap}}} \right)\left( {h \times w} \right)}}{{1 + {\rm{overlap}}}}} }}{2}{\kern 1pt} {\kern 1pt} + \frac{{h + w}}{2} $$ (15)

    综合3种情况,设这3个中的最小值为高斯半径,即r=min(r1, r2, r3)。但是实践应用中构造热力图GT的过程中存在这样的情况:

    1)待检测目标的高斯半径是相等的(圆形)。

    2)bbox计算的坐标范围未覆盖整个热力图。

    因为待检测目标的形状往往是不规则的,使用普通的高斯核函数无法完全匹配热力图形状,需要让热力图随着待检测目标长宽的趋势进行变化,然后根据待检测目标尺寸计算一个自适应半径,再全图构造热力图。高斯核半径计算需要注意以下两各方面:

    ① 对待检测目标,高斯核半径应该随着目标的宽w和高h的趋势变化;

    ② 计算的坐标范围应该限于目标框以内。

    修改前与修改后的区别如图 6所示,左图表示对于不同形状的待检测目标都是一个圆形热力图,不随着目标形状变化而变化,右图表示热力图随着目标形状而发生改变。左图bbox以外存在大于0的热力值,而右图中bbox包含整个热力图。这种差异带来的差别是,左图的热力图构造方式会导致正负样本划分模糊,在计算loss时加权不准确,迷惑卷积网络的自主学习,加重模型的计算量。

    图  6  高斯卷积核改进前后的Boundingbox和Heatmap示意图
    Figure  6.  Bounding box and Heat map before and after the improvement of Gaussian convolution kernel

    除了中心点外,其他都为负样本。但是负样本损失是有权重的,离中心点越近,负样本损失权重越低,反之越高。那么对于bbox外的点,都是负样本,理论上反映到热力图上,bbox外的值应该为0,由此可见改进后的热力图更加合理的。否则采用改进前的热力图计算时,bbox外的样本损失权重大于1,但实际是小于1的值,本来严格的负样本变得有一定的权重偏向于正样本,这与实际不符。

    采用改进的高斯卷积核,热力图随着目标的长宽发生改变,热力图在实际检测中是椭圆,平均精确度(Average PrecisionAP)值越高,检测效果越好。

    用3D方式展示高斯核函数,通过调用matplotlib的函数,画出二维高斯核函数的三维网格图,如图 7图 8所示。

    图  7  σ=1的高斯核函数
    Figure  7.  The Gaussian kernel at σ=1
    图  8  σ=5的高斯核函数
    Figure  8.  The Gaussian kernel at σ=5

    图中:σ是一个与目标大小(w, h)相关的标准差,每个点$\hat Y$的范围是0~1,其中1代表的是这个目标的中心点,也是我们要预测学习的点。

    σ=1和σ=5时,如果同一类别的两个高斯分布重合了,我们使用重合部分取最大值的方法来作为高斯的函数值。最中心的位置标签值为1,周围的标签呈${{\mathop{\rm e}\nolimits} ^{ - \frac{{{x^2} + {y^2}}}{{2{\sigma ^2}}}}}$规律递减。

    实验使用Windows10操作系统,PyTorch深度学习框架,计算机硬件配置如表 2所示。在图片训练之前用Labelimg对采集到的红外图像进行设备标注,然后整理成符合COCO标准图片格式的训练集,完成后使用CenterNet进行多次对照实验训练,每个步骤迭代训练200次,学习速率为0.001。

    表  2  计算机硬件配置
    Table  2.  Computer hardware configuration
    Name Type
    CPU Intel Core I7 9700K
    GPU Nvidia RTX 2080 Ti
    hard disk 4T SAS 7.2K*1
    memory 512 G
    下载: 导出CSV 
    | 显示表格

    实验通过基于改进的高斯卷积核目标检测系统,完成了对变电站红外图像的训练和测试,通过训练得到的模型,在测试集上进行预测。分析常用的目标检测评价指标,如平均精度均值(Mean Average Precision,mAP)、交并比IOU和Loss值,对模型进行评价。

    计算目标检测算法的结果参照两个指标[18]

    1)能否正确地预测框物体的类别。

    2)预测的框和人工标注框的重合程度。

    平均精度均值,即先计算每个类别的精度均值,再各自取出每一类的精度均值,然后计算所有类别的精度均值的平均值,结果是对检测结果的整体测评[19]。交并比用来判断预测的物体框和真实框的重合程度。设置交并比IOU=0.5的阈值评价最终结果性能,模型根据该IOU进行计算,大于该值,就找到了符合条件的检测结果,该结果可以作为计算平均精度均值的评价指标。

    在DLA-34、Res-101、Res-18三个基础网络上做了高斯卷积核改进前后的对比实验,结果如下所示:

    表 3测试结果可知,DLA-34、ResNet-101、ResNet-18的mAP值分别提升了2.9%、9.4%、25.7%,平均提升mAP值12.7%。通过改进高斯卷积,模型的训练准确度总体有所上升,其中ResNet -18模型提升的最为明显。通过实验证明,改进高斯卷积核后的模型,目标检测精度方面表现优于原Centenet模型。

    表  3  红外图像数据集测试结果
    Table  3.  Test results of infrared image data set
    bn Model mAP Epoch hm_loss wh_loss off_loss Loss
    DLA-34 before 0.685 200 1.2178887 3.385998 0.229195 1.646682
    after 0.705 200 1.1233817 2.775918 0.212195 1.415212
    Res-101 before 0.661 200 0.396270 3.179799 0.244151 1.138400
    after 0.723 200 0.521400 1.897403 0.232067 1.043208
    Res-18 before 0.463 200 0.451421 2.713203 0.262212 0.994953
    after 0.582 200 0.813421 2.113203 0.256721 0.87198
    下载: 导出CSV 
    | 显示表格

    表 3可知,应用改进后的高斯卷积核后,ResNet-101基础网络的mAP值最大,因此将其作为改进后CenterNet模型的基础网络。本次实验测试是在真实场景下进行的,使用了387张变电站红外图片,结果如表 4所示。

    表  4  针对变电站真实条件下的性能试验记录表
    Table  4.  Performance test record for substation
    Type Picture numbers Target numbers Correct detection
    number
    Average accuracy Miss raio Fallout ratio Total time
    Aerialconductor 12 16 12 0.750 0.250 0 1.080
    Arrester 38 62 54 0.871 0.129 0 3.040
    Breaker 45 125 114 0.912 0.024 0.064 4.562
    Condenser 83 83 71 0.855 0.133 0.012 8.088
    Currenttransformer 33 91 83 0.912 0.030 0.058 2.699
    Disconnector 16 16 13 0.813 0.187 0 1.746
    Electricreactor 34 65 56 0.862 0.138 0 2.919
    Maintransformer 42 42 36 0.857 0.143 0 3.606
    Tubular busbar 8 15 12 0.800 0.200 0 0.874
    Voltagetransformer 76 146 133 0.911 0.048 0.041 6.519
    下载: 导出CSV 
    | 显示表格

    表 4可知,断路器、电流互感器、电压互感器这3类的平均准确度(被正确预测的正样本)均达到了90%以上。将所有的平均准确率相加除以类别数,得到所有类别的平均准确度达到85.4%,能够满足变电站红外图像目标检测高精度的要求,有广泛的应用前景。

    检测图像的部分检测结果如图 9所示。

    图  9  部分检测结果图
    Figure  9.  Some detection result graph

    结果表明,通过该方法可以有效排除红外图片中的多种干扰因素,自动定位并识别出变电站设备类型,提高了变电站设备的识别定位精度。

    红外图像目标检测系统在电网领域具有抗干扰性、全天候工作等特点,在电力行业发挥了重要的作用,红外图像检测质量将直接影响电网系统正常工作的有效作用距离及监控设备和人员的配置,在红外图像预警系统中发挥着至关重要的作用。但在变电站设备红外目标检测实际检测过程中面临目标部分信息丢失、图像失焦、图像被遮挡、设备类型多等多种因素干扰,给红外图像变电站设备检测造成了一定的困难和挑战。

    本文给出了基于改进高斯卷积核的变电站设备红外图像检测方法。实验结果表明,该方法可以从较为复杂的红外图像中以较高的准确率将红外图像中的变电站设备识别定位出来,具备较好的检测效果,为变电站设备红外检测提供了更加精准高效的检测思路。

  • 图  1   训练数据集部分样本

    Figure  1.   Somesamples of the training data set

    图  2   目标检测流程图

    Figure  2.   Flow chart of target detection

    图  3   通过中心点预测候选框

    Figure  3.   The candidate box is predicted by the center point

    图  4   多个满足条件的候选框

    Figure  4.   Several candidate boxes that satisfy the criteria

    图  5   预测框与GT box三种不同位置关系图

    Figure  5.   Three different position relation diagrams of prediction box and GT box

    图  6   高斯卷积核改进前后的Boundingbox和Heatmap示意图

    Figure  6.   Bounding box and Heat map before and after the improvement of Gaussian convolution kernel

    图  7   σ=1的高斯核函数

    Figure  7.   The Gaussian kernel at σ=1

    图  8   σ=5的高斯核函数

    Figure  8.   The Gaussian kernel at σ=5

    图  9   部分检测结果图

    Figure  9.   Some detection result graph

    表  1   红外图像数据集

    Table  1   Infrared image data set

    Classname Label name Picture numbers
    Arrester Arrester 123
    Breaker Breaker 166
    Current transformer Current transformer 137
    Disconnector Disconnector 73
    Electricreactor Electricreactor 150
    Voltage transformer Voltage transformer 303
    Aerial conductor Aerial conductor 86
    Condenser Condenser 236
    Main transformer Main transformer 224
    Tubular busbar Tubular busbar 72
    下载: 导出CSV

    表  2   计算机硬件配置

    Table  2   Computer hardware configuration

    Name Type
    CPU Intel Core I7 9700K
    GPU Nvidia RTX 2080 Ti
    hard disk 4T SAS 7.2K*1
    memory 512 G
    下载: 导出CSV

    表  3   红外图像数据集测试结果

    Table  3   Test results of infrared image data set

    bn Model mAP Epoch hm_loss wh_loss off_loss Loss
    DLA-34 before 0.685 200 1.2178887 3.385998 0.229195 1.646682
    after 0.705 200 1.1233817 2.775918 0.212195 1.415212
    Res-101 before 0.661 200 0.396270 3.179799 0.244151 1.138400
    after 0.723 200 0.521400 1.897403 0.232067 1.043208
    Res-18 before 0.463 200 0.451421 2.713203 0.262212 0.994953
    after 0.582 200 0.813421 2.113203 0.256721 0.87198
    下载: 导出CSV

    表  4   针对变电站真实条件下的性能试验记录表

    Table  4   Performance test record for substation

    Type Picture numbers Target numbers Correct detection
    number
    Average accuracy Miss raio Fallout ratio Total time
    Aerialconductor 12 16 12 0.750 0.250 0 1.080
    Arrester 38 62 54 0.871 0.129 0 3.040
    Breaker 45 125 114 0.912 0.024 0.064 4.562
    Condenser 83 83 71 0.855 0.133 0.012 8.088
    Currenttransformer 33 91 83 0.912 0.030 0.058 2.699
    Disconnector 16 16 13 0.813 0.187 0 1.746
    Electricreactor 34 65 56 0.862 0.138 0 2.919
    Maintransformer 42 42 36 0.857 0.143 0 3.606
    Tubular busbar 8 15 12 0.800 0.200 0 0.874
    Voltagetransformer 76 146 133 0.911 0.048 0.041 6.519
    下载: 导出CSV
  • [1]

    Junwei Hsieh, Yungtai Hsu, Hongyuan Mark Liao, et al. Video-based human movement analysis and its application to surveillance systems[J]. IEEE Transactions on Multimedia, 2008, 10(3): 372-384. DOI: 10.1109/TMM.2008.917403

    [2] 黄文清, 汪亚明, 周志宇. 计算机视觉技术在工业领域中的应用[J]. 浙江理工大学学报: 自然科学版, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm

    HUANG Wenqing, WANG Yaming, ZHOU Zhiyu. Application of computer vision technology in the field of industry[J]. Journal of Zhejiang Institute of Science and Technology, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm

    [3]

    Leonid Sigal, Michael J Black. Guest editorial: state of the art in image- and video-based human pose and motion estimation[J]. International Journal of Computer Vision, 2010, 87(1): 1-3. http://dl.acm.org/citation.cfm?id=1713483

    [4]

    Yuki Kitahara, Seiji Takahashi, Noriyuki Kuramoto. Ion attachment mass spectrometry combined with infrared image furnace for thermal analysis: evolved gas analysis studies[J]. Analytical Chemistry, 2009, 81(8): 3155-3158. DOI: 10.1021/ac802746d

    [5] 王勇, 梅生伟, 何光宇. 变电站一次设备数字化特征和实现[J]. 电力系统自动化, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm

    WANG Yong, MEI Shengwei, HE Guangyu. The characteristics and realization of digitization of primary equipment in substations[J]. Automation of Electric Power Systems, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm

    [6]

    Felzenszwalb P F, Girshick R B, Mcallester D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Software Engineering, 2010, 32(9): 1627-1645. http://ieeexplore.ieee.org/document/5255236

    [7] 方路平, 何杭江, 周国民. 目标检测算法研究综述[J]. 计算机工程与应用, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167

    FANG Luping, HE Hangjiang, ZHOU Guomin. Research overview of object detection methods[J]. Computer Engineering and Applications, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167

    [8] 阮激扬. 基于YOLO的目标检测算法设计与实现[D]. 北京: 北京邮电大学, 2019.

    RUAN Jiyang. Design and Implementation of Target Detection Algorithm Based on YOLO[D]. Beijing: Beijing University of Posts and Telecommunications, 2019.

    [9] 李鹏飞, 刘瑶, 李珣, 等. YOLO9000模型的车辆多目标视频检测系统研究[J]. 计算机测量与控制, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm

    LI Pengfei, LIU Yao, LI Xun, et al. A detection method of multi-target for vehicles based on YOLO9000 model[J]. Computer Measurement & Control, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm

    [10] 季航, 贾镕, 刘晓, 等. 一种基于YOLOv3的红外目标检测系统[J]. 电子设计工程, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm

    JI Hang, JIA Rong, LIU Xiao, et al. An infrared target detection system based on YOLOv3[J]. Electronic Design Engineering, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm

    [11] 栾浩, 王力, 姜敏, 等. 基于改进SSD的目标检测方法[J]. 软件, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm

    LUAN Hao, WANG Li, JIANG Min, et al. Object detection method based on improved SSD[J]. Computer Engineering & Software, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm

    [12] 谢奇芳, 姚国清, 张猛. 基于Faster R-CNN的高分辨率图像目标检测技术[J]. 国土资源遥感, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm

    XIE Qifang, YAO Guoqing, ZHANG Meng. Research on high resolution image object detection technology based on Faster R-CNN[J]. Remote Sensing for Land & Resources, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm

    [13]

    DUAN K, BAI S, XIE L, et al. CenterNet: keypoint triplets for object detection[C]//IEEE International Conference on Computer Vision, 2019: 6569-6578.

    [14] 杨海燕, 蒋新华, 聂作先. 基于并行卷积神经网络的人脸关键点定位方法研究[J]. 计算机应用研究, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm

    YANG Haiyan, JIANG Xinhua, NIE Zuoxian. Facial key points location based on parallel convolutional neural network[J]. Application Research of Computers, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm

    [15] 刘云鹏, 裴少通, 武建华, 等. 基于深度学习的输变电设备异常发热点红外图片目标检测方法[J]. 南方电网技术, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm

    LIU Yunpeng, PEI Shaotong, WU Jianhua, et al. Deep learning based target detection method for abnormal hot spots infrared images of transmission and transformation equipment[J]. Southern Power System Technology, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm

    [16] 林海波, 王浩, 张毅. 改进高斯核函数的人体姿态分析与识别[J]. 智能系统学报, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm

    LIN Haibo, WANG Hao, ZHANG Yi. Human postures recognition based on the improved Gauss kernel function[J]. CAAL Transactions on Intelligent Systems, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm

    [17]

    WU Jiajun, XUE Tianfan, Joseph J. Lim. Single image 3D interpreter network[C]// European Conference on Computer Vision, 2016: 1-18.

    [18] 莫邵文, 邓新蒲, 王帅, 等. 基于改进视觉背景提取的运动目标检测算法[J]. 光学学报, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm

    MO Shaowen, DENG Xinpu, WANG Shuai, et al. Moving object detection algorithm based on improved visual background extractor[J]. Acta Optica Sinica, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm

    [19] 朱伯伟, 庾农, 肖松. 红外极小目标检测算法研究[J]. 航空电子技术, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm

    ZHU Bowei, YU Nong, XIAO Song. Approaches on infrared point targets detection algorithm[J]. Avionics Technology, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm

  • 期刊类型引用(14)

    1. 邓长征,刘明泽,付添,弓萌庆,骆冰洁. 基于改进YOLOv7-Tiny的变电设备红外图像识别. 红外技术. 2025(01): 44-51 . 本站查看
    2. 钟志明. 基于改进YOLOv7的变电站套管红外图像智能诊断模型构建及应用. 国外电子测量技术. 2025(01): 140-147 . 百度学术
    3. 范继锋,张彦斌,李智,张伟,陈杰. 变电站多旋翼无人机巡检红外图像目标检测. 激光与红外. 2025(04): 599-606 . 百度学术
    4. 何明,佘乐欣,严铿博,李思尧,黄煜伟,刘晓松. 基于改进深度学习的开关柜局部放电检测与故障识别. 微型电脑应用. 2024(01): 123-126 . 百度学术
    5. 吴跃,宝贵,韩文军,占龙,郭沣慧. 基于空间光学传感技术的变电站设备高热故障红外识别方法. 环境技术. 2024(03): 137-142+151 . 百度学术
    6. 柳皓,马强,付强,陈远,赵通汉. 基于改进YOLOv4的智能变电站二次设备稳态AR红外测温技术. 计算技术与自动化. 2024(02): 35-40 . 百度学术
    7. 张佳钰,蔡泽烽,冯杰. 基于改进的CenterNet变电站设备红外温度检测方法. 计算机测量与控制. 2024(07): 50-56 . 百度学术
    8. 张绘敏,赵扬,康会峰. 基于卷积神经网络算法的光伏组件热斑图像检测方法研究. 计算机测量与控制. 2024(07): 57-63 . 百度学术
    9. 李长红,田芳芳. 基于红外热成像的变电站设备异常检测方法. 电气技术与经济. 2024(10): 343-346 . 百度学术
    10. 黄志鸿,颜星雨,陶岩,张辉,徐先勇. 基于多模态图像信息的配电网部件定位方法. 湖南电力. 2024(06): 83-89 . 百度学术
    11. 孙猛,邓志成,程相杰,陈荣泽,方超. 基于程序模块化建模的智慧电站一体化平台构建. 电力大数据. 2023(01): 76-82 . 百度学术
    12. 骆会详. 基于小波域CHMT模型的110 kV变电站设备超温红外预警方法. 计算技术与自动化. 2023(02): 64-70 . 百度学术
    13. 许冰,李斌,陈世海,文建军. 基于深度学习的GIS局部放电故障诊断技术研究. 微型电脑应用. 2023(08): 118-121 . 百度学术
    14. 熊黎黎,贾璐. 轻质混凝土承压监测方法设计与仿真. 计算机仿真. 2022(06): 284-288 . 百度学术

    其他类型引用(5)

图(9)  /  表(4)
计量
  • 文章访问数:  556
  • HTML全文浏览量:  155
  • PDF下载量:  50
  • 被引次数: 19
出版历程
  • 收稿日期:  2020-04-15
  • 修回日期:  2020-12-27
  • 刊出日期:  2021-04-01

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日