Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel
-
摘要: 在无锚点算法CenterNet模型的基础上,针对基于红外图像的目标检测算法检测精度低、耗时长的问题,给出了一种基于改进高斯卷积核的变电站设备红外图像检测方法,该目标检测方法模型网络结构精简,模型计算量较小。通过现场变电站巡检机器人设备收集数据样本,进行算法模型的训练及验证,实现红外图像变电站设备精准识别及定位。本文以变电站巡检机器人搭配红外热成像仪采集到的红外图像库为基础,用深度学习方法对数据集进行训练和测试,研究变电站红外图像的目标检测技术。通过深度学习技术判断设备中心点位实现目标分类和回归。实验结果表明,该方法提高了变电站目标检测方法的识别定位精度,为变电站设备红外图像智能检测提供了新的思路。Abstract: Slow and inaccurate target detection algorithms used to analyze infrared images are the focus of this study. An infrared image detection method is proposed for substation equipment using an improved Gaussian convolution kernel, which is based on the CenterNet algorithm without an anchor point. In brief, data samples were first collected using on-site substation inspection robot equipment, the algorithm model was trained and verified, and finally, accurate identification and positioning of infrared image substation equipment was achieved. Specifically, based on the infrared image library collected by the substation inspection robot and the infrared thermal imager, methods of deep learning were applied to train and test a model using the dataset, the target detection technology of substation infrared images was studied, and the equipment center was accurately judged through deep learning technology to achieve target classification and regression. The identification and positioning accuracy of the substation target detection were improved by adopting this proposed method, and it provides new ideas for the intelligent detection of infrared images for substation equipment.
-
0. 引言
目前,类似于微光夜视仪的直视型微光装备可靠性试验主要通过“拷机”即静态工作过程来实现。试验时,参试人员间歇性地观察被试品显示端图像,通过人工判读被试品目镜视场的方法来确定被试品是否处于正常工作状态[1]。此方法存在以下不足:一是人工试验鉴定效率低且易发生漏检。可靠性试验具有工作量大、重复性高的特点。由于设备批量大,采用人工方法需要多名检测人员每天长时间工作、连续几个月以上才能完成,耗时耗力。而且,试验中人员间隔对设备进行检查,检查间隙内出现的偶发故障则很难被发现。加之检查很大程度取决于检查人员技术水平和检查经验,主观性大,极易发生漏检。二是人工试验鉴定缺乏有效的故障数据存储处理,不利于技术的持续改进。以人工检测为主的试验方法主要依靠肉眼识别,对出现的故障进行简短的文字描述与记载。这样的检测记录方式存在两个问题:一方面,人工检测记录在装备出现故障时难以完备具体、定性定量地记录故障对装备各个部件的影响,在提供故障检测报告时缺乏有力佐证,且由于故障出现的随机性,难以复现;另一方面,人工检测记录的方式缺乏有效的检测数据存储,无法形成故障数据样本集,这为技术改进增加了难度。
综上所述,现有直视型装备的可靠性试验所存在的问题归根结底是检测手段无法满足日益增长的检测需求,因此亟需一种智能的、高效的替代人工检查的技术[2-3]。从图像中提取特征获得场景信息是区域监视、目标识别等领域的重要手段。图像质量评价方法可通过衡量图像变化程度来实现视场异常检测[4-5]。传统的图像质量评价方法包括利用图像像素偏离量度量图像下降质量的方法[6],如均方误差度量(Mean-Square Error,MSE)、峰值信噪比(Peak Signal to Noise Ratio,PSNR)等;计算图像像素灰度幅度变化(等价为图像边缘信息)衡量图像质量的方法[7];利用图像灰度分布计算信息熵的方法[8]等。基于小波变换[9]与结构相似性(Structural SIMilarity,SSIM)理论[10-12]的评估方法与人类视觉系统类似,其出现使图像质量评价的准确性有了较大提升。
本文通过设计转接环连接相机与直视型微光装备进行图像的采集获取,采用结构相似性算法进行异常图像的自动检测,从而实现对直视型微光装备在可靠性试验中的故障诊断。
1. 直视型微光装备图像采集技术
基于SSIM算法的直视型微光装备可靠性试验故障诊断通过在被试品目镜上采用连接环固定图像采集设备的方法来获取图像,连续采集记录在被试品可靠性试验过程中目镜里的图像信息。通过设定图像模板,计算被试品监测图像与模板图像的相似度,识别被试品工作过程中的故障,标记、记录并报警,实现被试品工作过程中的故障自动监测。
1.1 被试品与图像采集设备的可靠连接
被试品与图像采集设备间的可靠连接是稳定采集图像的前提。文中利用直视型微光装备目镜上预留的眼罩螺纹与工业相机镜头上的滤镜螺纹进行可靠连接。按照被试品目镜上螺纹规格和相机镜头滤镜螺纹规格设计加工连接环,一端与被试品连接,另一端与视频采集设备镜头连接,即可实现被试品与图像采集设备间的可靠连接。采集图像时,通过手动调节被试品视度、相机焦距和被试品焦距来实现被试品图像的高清采集。在图像采集相机和镜头选定后,适配该相机的转接环尺寸也随即确定。实际应用中不同被试品眼罩转接环尺寸可能有所差异,为保证转接环能够适用多型装备,可预先按照常用眼罩螺纹规格设计加工系列与相机连接的转接环,如图 1所示的M21×0.7-M25.5×0.5,使用时,根据被试品眼罩螺纹规格,选用相匹配的转接环。
1.2 图像采集设备的选择
图像采集设备应尽量满足以下要求:
1)图像采集的效果应尽可能模拟或超过人眼观察效果,保证软件处理的准确性;
2)相机与被试品间的连接不影响被试品的正常操作和整体平衡,相机重量应尽量轻,体积尽量小;
3)实际试验中可能存在多路图像同时采集的需求,为便于后期图像处理和管理,要求相机接口以Ethernet为主。
文中选择高分辨率彩色相机(型号A3600MU60)作为图像采集设备,配置12mm 1:2.0 1/1.8″镜头。表 1展示了其基本参数。
表 1 图像采集设备基本参数Table 1. Basic parameters of image acquisition equipmentParameter Value Resolution 1920×1200 Maximum frame rate 54fps@1920×1200 Camera type Color camera Pixel size 4.8μm×4.8μm Exposure time 59μs-10s Data interface Gigabit Ethernet Power supply Voltage range 5-15 V,Support PoE power supply Power consumption 2.9 W@12VD Lens interface C-Mout 2. 图像异常诊断技术
2.1 SSIM算法
SSIM算法利用图像像素间的相关性,结合亮度l、对比度c以及两个复杂结构信号间的结构变化s对图像质量进行客观量化评估。
定义图像亮度为:
$${\mu _x} = \frac{1}{N}\sum\limits_{i = 1}^N {{x_i}} $$ 式中:xi为图像第i个像素点的灰度值;N为图像的像素总个数。
设x为模板图像信号,y为待测图像信号。采用平均亮度(μx, μy)计算亮度相似性,定义为:
$$l\left( {x,y} \right) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_1}}}$$ 采用标准差(σx, σy)来估计对比度相似性,定义为:
$$c\left( {x,y} \right) = \frac{{2{\sigma _x}{\sigma _y} + {C_2}}}{{\sigma _x^2 + \sigma _y^2{\rm{ + }}{C_2}}}$$ 采用$\left( {\frac{{{\mu _i} - {\mu _x}}}{{{\sigma _x}}},\frac{{{y_i} - {\mu _y}}}{{{\sigma _y}}}} \right)$来计算结构相似度s(x, y),定义为:
$$s(x,y) = \frac{{2{\sigma _{xy}} + {C_3}}}{{{\sigma _x} + {\sigma _y} + {C_3}}}$$ 式中:σxy为参考图像信号x和失真图像信号y的相关系数,计算为:
$${\sigma _{xy}} = \frac{1}{{N - 1}}\sum\limits_{i = 1}^N {\left( {{x_i} - {\mu _x}} \right)\left( {{y_i} - {\mu _y}} \right)} $$ 上述公式中的C1、C2、C3为引入常数,避免μx2+μy2或σx2+σy2值接近0时引起公式无意义。
在实际操作过程中,通常引入参数α, β, γ>0调整亮度、对比度和结构性信息的权重,确定较为合适的SSIM值,定义如下:
SSIM=[l(x, y)]α[c(x, y)]β[s(x, y)]γ
在评价被测图像质量时,SSIM算法用一定尺寸的窗口沿图像逐像素地从左上角到右下角移动,每次计算两幅图像中窗口对应子图像的SSIM值。得到的所有子图像的SSIM值的平均即为该待测图像相较于模板图像的相似度,记为MSIMM(X, Y)表示为:
$${\rm{MSIMM}}(X,Y) = \sum\limits_{j = 1}^M {{\rm{SSIM}}\left( {{X_j},{Y_j}} \right)} $$ 式中:M为子图像块的数量。
2.2 基于结构相似性的图像异常诊断软件设计
异常诊断软件主要根据SSIM算法计算得到的待测图像与模板图像的相似度判定待测设备是否出现故障。软件运行情况如图 2,诊断流程主要包括:确定模板图像、选定相似度判决阈值、SSIM算法计算相似度、实时检测筛选异常图像并对异常信息做出警告与记录。其主要步骤如下:
1)确定模板图像:对于直视型微光装备可靠性试验而言,通常在一个大的、较为黑暗条件下的工房中或晚上照度较小的野外进行。SSIM算法需提前确定好模板图像,即提前将直视型微光装备的视场固定。模板图像作为判定被试装备异常的基础,在选取过程中需严格控制相关外部条件。在视场中心放置一个特征明显、占据直视型微光装备目镜视场1/3~2/3视场的物体,同时控制现场外部光线不出现明显变化,保证直视型微光装备空间位置不变,点击软件拍照功能,存储为模板;
2)相似度判决阈值确定:正式试验前,录制一段被试品目镜视场的视频,期间通过人为开关机操作和遮挡目镜镜头等方式模拟故障,将视频逐帧图像与选定的模板进行比较,得到系列相似度值,将其与故障现象对照,确定出故障出现的最大相似度值,进而作为相似度判决阈值;
3)对于筛选出的异常图像,需发出警告信息并记录序号和时间信息,与图像一起存入告警文件夹。
本文基于MATLAB GUI设计开发直视型微光装备可靠性自动诊断软件,界面如图 2所示。
3. 工程实践与结果分析
根据1.2的描述选择图像采集设备,按照图 3所示的方式通过转接环连接图像采集设备与直视型微光装备目镜。被试微光夜视仪开机,通过相机参数调节,使拍摄到的图像满足观察和软件处理需求。本文实践中依据测试实际情况设置相机采样频率为1 Hz。
3.1 模拟故障识别率检验试验
设置模板图像为设备正常工作时相机传回的监视图像,如图 4。
直视型微光装备可靠性试验主要检测一定工作时间内装备是否正常工作,可能出现的故障有:设备非正常关机、图像质量非正常变化等[3, 13]。故障发生时,监视器中的图像主要表现为:视场出现黑斑、十字刻度消失、黑屏。
采集过程中,通过人为开关机操作和遮挡被试品目镜镜头等方式模拟微光夜视仪可靠性试验过程中出现故障的情况,可覆盖故障时视场变化情况。共获得93幅图像,其中故障图像15幅,如图 5(下标为对应图像在模拟试验获取的图像序列中的编号),构成本文装备可靠性试验工作图像数据集。
利用SSIM算法进行图像相似度计算,采集的监视图像与模板图像相似度计算结果如图 6所示;根据图像序号挑选出相似度小于设定阈值(根据SSIM分布特征和历史经验数据提前确定,本文取0.5)的图像,用“*”表示,这些图像正是数据集中模拟所得的故障图像。故障检测率达到100%且未出现虚警。
该试验证明,通过合理地设置相似度阈值,SSIM算法能够准确地诊断出可靠性试验过程中,被试装备图像的异常情况。
3.2 室内照度变化对被试品故障诊断的影响
直视型微光装备的可靠性试验一般在暗室条件下进行。由于装备对环境照度变化十分敏感,需要保持室内环境照度相对稳定。实际试验中,物体移动、光源发生变化等都会引起室内环境照度不同程度变化[14-15]。图 7(a)显示了某次试验中模拟人员走动、开关门和使用手机时暗室环境的照度变化曲线,图 7(b)展示了采集的对应图像与模板图像的SSIM值。其中,用“*”标记的点为与模板图像相似度小于0.5的图像。可以看到,微小的照度变化引起了被试品图像的显著变化。图 8(下标为对应图像在模拟试验获取的图像序列中的编号)展示了部分相似度小于0.5也被错误识别为异常的图像。
可见,室内照度变化会显著影响SSIM算法图像诊断的准确性。在实际可靠性试验过程中,应该尽可能保证室内照度的稳定,从而提高算法诊断的准确性。
4. 结束语
本文针对传统的直视型微光装备可靠性试验故障诊断中的不足,讨论了一种基于机器视觉的自动故障诊断方法。该方法通过设计转接环连接工业相机与被试装备目镜,自动采集传输监视图像,采用SSIM算法计算测试图像与模板的相似度从而判断设备是否发生异常。实践表明该方法很好地符合了人工视觉观察判断的结果,可为实现装备可靠性自动故障检测提供有力支撑,同时指出试验环境照度变化对试验结果的显著影响。
-
表 1 红外图像数据集
Table 1 Infrared image data set
Classname Label name Picture numbers Arrester Arrester 123 Breaker Breaker 166 Current transformer Current transformer 137 Disconnector Disconnector 73 Electricreactor Electricreactor 150 Voltage transformer Voltage transformer 303 Aerial conductor Aerial conductor 86 Condenser Condenser 236 Main transformer Main transformer 224 Tubular busbar Tubular busbar 72 表 2 计算机硬件配置
Table 2 Computer hardware configuration
Name Type CPU Intel Core I7 9700K GPU Nvidia RTX 2080 Ti hard disk 4T SAS 7.2K*1 memory 512 G 表 3 红外图像数据集测试结果
Table 3 Test results of infrared image data set
bn Model mAP Epoch hm_loss wh_loss off_loss Loss DLA-34 before 0.685 200 1.2178887 3.385998 0.229195 1.646682 after 0.705 200 1.1233817 2.775918 0.212195 1.415212 Res-101 before 0.661 200 0.396270 3.179799 0.244151 1.138400 after 0.723 200 0.521400 1.897403 0.232067 1.043208 Res-18 before 0.463 200 0.451421 2.713203 0.262212 0.994953 after 0.582 200 0.813421 2.113203 0.256721 0.87198 表 4 针对变电站真实条件下的性能试验记录表
Table 4 Performance test record for substation
Type Picture numbers Target numbers Correct detection
numberAverage accuracy Miss raio Fallout ratio Total time Aerialconductor 12 16 12 0.750 0.250 0 1.080 Arrester 38 62 54 0.871 0.129 0 3.040 Breaker 45 125 114 0.912 0.024 0.064 4.562 Condenser 83 83 71 0.855 0.133 0.012 8.088 Currenttransformer 33 91 83 0.912 0.030 0.058 2.699 Disconnector 16 16 13 0.813 0.187 0 1.746 Electricreactor 34 65 56 0.862 0.138 0 2.919 Maintransformer 42 42 36 0.857 0.143 0 3.606 Tubular busbar 8 15 12 0.800 0.200 0 0.874 Voltagetransformer 76 146 133 0.911 0.048 0.041 6.519 -
[1] Junwei Hsieh, Yungtai Hsu, Hongyuan Mark Liao, et al. Video-based human movement analysis and its application to surveillance systems[J]. IEEE Transactions on Multimedia, 2008, 10(3): 372-384. DOI: 10.1109/TMM.2008.917403
[2] 黄文清, 汪亚明, 周志宇. 计算机视觉技术在工业领域中的应用[J]. 浙江理工大学学报: 自然科学版, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm HUANG Wenqing, WANG Yaming, ZHOU Zhiyu. Application of computer vision technology in the field of industry[J]. Journal of Zhejiang Institute of Science and Technology, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm
[3] Leonid Sigal, Michael J Black. Guest editorial: state of the art in image- and video-based human pose and motion estimation[J]. International Journal of Computer Vision, 2010, 87(1): 1-3. http://dl.acm.org/citation.cfm?id=1713483
[4] Yuki Kitahara, Seiji Takahashi, Noriyuki Kuramoto. Ion attachment mass spectrometry combined with infrared image furnace for thermal analysis: evolved gas analysis studies[J]. Analytical Chemistry, 2009, 81(8): 3155-3158. DOI: 10.1021/ac802746d
[5] 王勇, 梅生伟, 何光宇. 变电站一次设备数字化特征和实现[J]. 电力系统自动化, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm WANG Yong, MEI Shengwei, HE Guangyu. The characteristics and realization of digitization of primary equipment in substations[J]. Automation of Electric Power Systems, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm
[6] Felzenszwalb P F, Girshick R B, Mcallester D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Software Engineering, 2010, 32(9): 1627-1645. http://ieeexplore.ieee.org/document/5255236
[7] 方路平, 何杭江, 周国民. 目标检测算法研究综述[J]. 计算机工程与应用, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167 FANG Luping, HE Hangjiang, ZHOU Guomin. Research overview of object detection methods[J]. Computer Engineering and Applications, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167
[8] 阮激扬. 基于YOLO的目标检测算法设计与实现[D]. 北京: 北京邮电大学, 2019. RUAN Jiyang. Design and Implementation of Target Detection Algorithm Based on YOLO[D]. Beijing: Beijing University of Posts and Telecommunications, 2019.
[9] 李鹏飞, 刘瑶, 李珣, 等. YOLO9000模型的车辆多目标视频检测系统研究[J]. 计算机测量与控制, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm LI Pengfei, LIU Yao, LI Xun, et al. A detection method of multi-target for vehicles based on YOLO9000 model[J]. Computer Measurement & Control, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm
[10] 季航, 贾镕, 刘晓, 等. 一种基于YOLOv3的红外目标检测系统[J]. 电子设计工程, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm JI Hang, JIA Rong, LIU Xiao, et al. An infrared target detection system based on YOLOv3[J]. Electronic Design Engineering, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm
[11] 栾浩, 王力, 姜敏, 等. 基于改进SSD的目标检测方法[J]. 软件, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm LUAN Hao, WANG Li, JIANG Min, et al. Object detection method based on improved SSD[J]. Computer Engineering & Software, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm
[12] 谢奇芳, 姚国清, 张猛. 基于Faster R-CNN的高分辨率图像目标检测技术[J]. 国土资源遥感, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm XIE Qifang, YAO Guoqing, ZHANG Meng. Research on high resolution image object detection technology based on Faster R-CNN[J]. Remote Sensing for Land & Resources, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm
[13] DUAN K, BAI S, XIE L, et al. CenterNet: keypoint triplets for object detection[C]//IEEE International Conference on Computer Vision, 2019: 6569-6578.
[14] 杨海燕, 蒋新华, 聂作先. 基于并行卷积神经网络的人脸关键点定位方法研究[J]. 计算机应用研究, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm YANG Haiyan, JIANG Xinhua, NIE Zuoxian. Facial key points location based on parallel convolutional neural network[J]. Application Research of Computers, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm
[15] 刘云鹏, 裴少通, 武建华, 等. 基于深度学习的输变电设备异常发热点红外图片目标检测方法[J]. 南方电网技术, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm LIU Yunpeng, PEI Shaotong, WU Jianhua, et al. Deep learning based target detection method for abnormal hot spots infrared images of transmission and transformation equipment[J]. Southern Power System Technology, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm
[16] 林海波, 王浩, 张毅. 改进高斯核函数的人体姿态分析与识别[J]. 智能系统学报, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm LIN Haibo, WANG Hao, ZHANG Yi. Human postures recognition based on the improved Gauss kernel function[J]. CAAL Transactions on Intelligent Systems, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm
[17] WU Jiajun, XUE Tianfan, Joseph J. Lim. Single image 3D interpreter network[C]// European Conference on Computer Vision, 2016: 1-18.
[18] 莫邵文, 邓新蒲, 王帅, 等. 基于改进视觉背景提取的运动目标检测算法[J]. 光学学报, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm MO Shaowen, DENG Xinpu, WANG Shuai, et al. Moving object detection algorithm based on improved visual background extractor[J]. Acta Optica Sinica, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm
[19] 朱伯伟, 庾农, 肖松. 红外极小目标检测算法研究[J]. 航空电子技术, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm ZHU Bowei, YU Nong, XIAO Song. Approaches on infrared point targets detection algorithm[J]. Avionics Technology, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm