基于改进高斯卷积核的变电站设备红外图像检测方法

吴添权, 郭竞, 苟先太, 黄勤琴, 周维超

吴添权, 郭竞, 苟先太, 黄勤琴, 周维超. 基于改进高斯卷积核的变电站设备红外图像检测方法[J]. 红外技术, 2021, 43(3): 230-236.
引用本文: 吴添权, 郭竞, 苟先太, 黄勤琴, 周维超. 基于改进高斯卷积核的变电站设备红外图像检测方法[J]. 红外技术, 2021, 43(3): 230-236.
WU Tianquan, GUO Jing, GOU Xiantai, HUANG Qinqin, ZHOU Weichao. Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel[J]. Infrared Technology , 2021, 43(3): 230-236.
Citation: WU Tianquan, GUO Jing, GOU Xiantai, HUANG Qinqin, ZHOU Weichao. Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel[J]. Infrared Technology , 2021, 43(3): 230-236.

基于改进高斯卷积核的变电站设备红外图像检测方法

基金项目: 

四川省人工智能重大专项项目 2018GZDZX0043

中国南方电网科技项目 035100KK52190003

详细信息
    作者简介:

    吴添权(1977-),男,广东潮州人,高级工程师,主要从事电气设备试验工作,主要研究方向为电气试验技术

    通讯作者:

    苟先太(1971-),男,四川三台人,副教授,博士,主要研究方向为电网智能化、人工智能技术。E-mail: 491098063@qq.com

  • 中图分类号: TM727

Method of Detecting Substation Equipment in Infrared Images Based on Improved Gaussian Convolution Kernel

  • 摘要: 在无锚点算法CenterNet模型的基础上,针对基于红外图像的目标检测算法检测精度低、耗时长的问题,给出了一种基于改进高斯卷积核的变电站设备红外图像检测方法,该目标检测方法模型网络结构精简,模型计算量较小。通过现场变电站巡检机器人设备收集数据样本,进行算法模型的训练及验证,实现红外图像变电站设备精准识别及定位。本文以变电站巡检机器人搭配红外热成像仪采集到的红外图像库为基础,用深度学习方法对数据集进行训练和测试,研究变电站红外图像的目标检测技术。通过深度学习技术判断设备中心点位实现目标分类和回归。实验结果表明,该方法提高了变电站目标检测方法的识别定位精度,为变电站设备红外图像智能检测提供了新的思路。
    Abstract: Slow and inaccurate target detection algorithms used to analyze infrared images are the focus of this study. An infrared image detection method is proposed for substation equipment using an improved Gaussian convolution kernel, which is based on the CenterNet algorithm without an anchor point. In brief, data samples were first collected using on-site substation inspection robot equipment, the algorithm model was trained and verified, and finally, accurate identification and positioning of infrared image substation equipment was achieved. Specifically, based on the infrared image library collected by the substation inspection robot and the infrared thermal imager, methods of deep learning were applied to train and test a model using the dataset, the target detection technology of substation infrared images was studied, and the equipment center was accurately judged through deep learning technology to achieve target classification and regression. The identification and positioning accuracy of the substation target detection were improved by adopting this proposed method, and it provides new ideas for the intelligent detection of infrared images for substation equipment.
  • 目前,类似于微光夜视仪的直视型微光装备可靠性试验主要通过“拷机”即静态工作过程来实现。试验时,参试人员间歇性地观察被试品显示端图像,通过人工判读被试品目镜视场的方法来确定被试品是否处于正常工作状态[1]。此方法存在以下不足:一是人工试验鉴定效率低且易发生漏检。可靠性试验具有工作量大、重复性高的特点。由于设备批量大,采用人工方法需要多名检测人员每天长时间工作、连续几个月以上才能完成,耗时耗力。而且,试验中人员间隔对设备进行检查,检查间隙内出现的偶发故障则很难被发现。加之检查很大程度取决于检查人员技术水平和检查经验,主观性大,极易发生漏检。二是人工试验鉴定缺乏有效的故障数据存储处理,不利于技术的持续改进。以人工检测为主的试验方法主要依靠肉眼识别,对出现的故障进行简短的文字描述与记载。这样的检测记录方式存在两个问题:一方面,人工检测记录在装备出现故障时难以完备具体、定性定量地记录故障对装备各个部件的影响,在提供故障检测报告时缺乏有力佐证,且由于故障出现的随机性,难以复现;另一方面,人工检测记录的方式缺乏有效的检测数据存储,无法形成故障数据样本集,这为技术改进增加了难度。

    综上所述,现有直视型装备的可靠性试验所存在的问题归根结底是检测手段无法满足日益增长的检测需求,因此亟需一种智能的、高效的替代人工检查的技术[2-3]。从图像中提取特征获得场景信息是区域监视、目标识别等领域的重要手段。图像质量评价方法可通过衡量图像变化程度来实现视场异常检测[4-5]。传统的图像质量评价方法包括利用图像像素偏离量度量图像下降质量的方法[6],如均方误差度量(Mean-Square Error,MSE)、峰值信噪比(Peak Signal to Noise Ratio,PSNR)等;计算图像像素灰度幅度变化(等价为图像边缘信息)衡量图像质量的方法[7];利用图像灰度分布计算信息熵的方法[8]等。基于小波变换[9]与结构相似性(Structural SIMilarity,SSIM)理论[10-12]的评估方法与人类视觉系统类似,其出现使图像质量评价的准确性有了较大提升。

    本文通过设计转接环连接相机与直视型微光装备进行图像的采集获取,采用结构相似性算法进行异常图像的自动检测,从而实现对直视型微光装备在可靠性试验中的故障诊断。

    基于SSIM算法的直视型微光装备可靠性试验故障诊断通过在被试品目镜上采用连接环固定图像采集设备的方法来获取图像,连续采集记录在被试品可靠性试验过程中目镜里的图像信息。通过设定图像模板,计算被试品监测图像与模板图像的相似度,识别被试品工作过程中的故障,标记、记录并报警,实现被试品工作过程中的故障自动监测。

    被试品与图像采集设备间的可靠连接是稳定采集图像的前提。文中利用直视型微光装备目镜上预留的眼罩螺纹与工业相机镜头上的滤镜螺纹进行可靠连接。按照被试品目镜上螺纹规格和相机镜头滤镜螺纹规格设计加工连接环,一端与被试品连接,另一端与视频采集设备镜头连接,即可实现被试品与图像采集设备间的可靠连接。采集图像时,通过手动调节被试品视度、相机焦距和被试品焦距来实现被试品图像的高清采集。在图像采集相机和镜头选定后,适配该相机的转接环尺寸也随即确定。实际应用中不同被试品眼罩转接环尺寸可能有所差异,为保证转接环能够适用多型装备,可预先按照常用眼罩螺纹规格设计加工系列与相机连接的转接环,如图 1所示的M21×0.7-M25.5×0.5,使用时,根据被试品眼罩螺纹规格,选用相匹配的转接环。

    图  1  转接环加工示意图
    Figure  1.  Adaptors processing diagram

    图像采集设备应尽量满足以下要求:

    1)图像采集的效果应尽可能模拟或超过人眼观察效果,保证软件处理的准确性;

    2)相机与被试品间的连接不影响被试品的正常操作和整体平衡,相机重量应尽量轻,体积尽量小;

    3)实际试验中可能存在多路图像同时采集的需求,为便于后期图像处理和管理,要求相机接口以Ethernet为主。

    文中选择高分辨率彩色相机(型号A3600MU60)作为图像采集设备,配置12mm 1:2.0 1/1.8″镜头。表 1展示了其基本参数。

    表  1  图像采集设备基本参数
    Table  1.  Basic parameters of image acquisition equipment
    Parameter Value
    Resolution 1920×1200
    Maximum frame rate 54fps@1920×1200
    Camera type Color camera
    Pixel size 4.8μm×4.8μm
    Exposure time 59μs-10s
    Data interface Gigabit Ethernet
    Power supply Voltage range 5-15 V,Support PoE power supply
    Power consumption 2.9 W@12VD
    Lens interface C-Mout
    下载: 导出CSV 
    | 显示表格

    SSIM算法利用图像像素间的相关性,结合亮度l、对比度c以及两个复杂结构信号间的结构变化s对图像质量进行客观量化评估。

    定义图像亮度为:

    $${\mu _x} = \frac{1}{N}\sum\limits_{i = 1}^N {{x_i}} $$

    式中:xi为图像第i个像素点的灰度值;N为图像的像素总个数。

    x为模板图像信号,y为待测图像信号。采用平均亮度(μx, μy)计算亮度相似性,定义为:

    $$l\left( {x,y} \right) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_1}}}$$

    采用标准差(σx, σy)来估计对比度相似性,定义为:

    $$c\left( {x,y} \right) = \frac{{2{\sigma _x}{\sigma _y} + {C_2}}}{{\sigma _x^2 + \sigma _y^2{\rm{ + }}{C_2}}}$$

    采用$\left( {\frac{{{\mu _i} - {\mu _x}}}{{{\sigma _x}}},\frac{{{y_i} - {\mu _y}}}{{{\sigma _y}}}} \right)$来计算结构相似度s(x, y),定义为:

    $$s(x,y) = \frac{{2{\sigma _{xy}} + {C_3}}}{{{\sigma _x} + {\sigma _y} + {C_3}}}$$

    式中:σxy为参考图像信号x和失真图像信号y的相关系数,计算为:

    $${\sigma _{xy}} = \frac{1}{{N - 1}}\sum\limits_{i = 1}^N {\left( {{x_i} - {\mu _x}} \right)\left( {{y_i} - {\mu _y}} \right)} $$

    上述公式中的C1C2C3为引入常数,避免μx2+μy2σx2+σy2值接近0时引起公式无意义。

    在实际操作过程中,通常引入参数α, β, γ>0调整亮度、对比度和结构性信息的权重,确定较为合适的SSIM值,定义如下:

    SSIM=[l(x, y)]α[c(x, y)]β[s(x, y)]γ

    在评价被测图像质量时,SSIM算法用一定尺寸的窗口沿图像逐像素地从左上角到右下角移动,每次计算两幅图像中窗口对应子图像的SSIM值。得到的所有子图像的SSIM值的平均即为该待测图像相较于模板图像的相似度,记为MSIMM(X, Y)表示为:

    $${\rm{MSIMM}}(X,Y) = \sum\limits_{j = 1}^M {{\rm{SSIM}}\left( {{X_j},{Y_j}} \right)} $$

    式中:M为子图像块的数量。

    异常诊断软件主要根据SSIM算法计算得到的待测图像与模板图像的相似度判定待测设备是否出现故障。软件运行情况如图 2,诊断流程主要包括:确定模板图像、选定相似度判决阈值、SSIM算法计算相似度、实时检测筛选异常图像并对异常信息做出警告与记录。其主要步骤如下:

    图  2  软件运行界面
    Figure  2.  Interface of the fault diagnosis software

    1)确定模板图像:对于直视型微光装备可靠性试验而言,通常在一个大的、较为黑暗条件下的工房中或晚上照度较小的野外进行。SSIM算法需提前确定好模板图像,即提前将直视型微光装备的视场固定。模板图像作为判定被试装备异常的基础,在选取过程中需严格控制相关外部条件。在视场中心放置一个特征明显、占据直视型微光装备目镜视场1/3~2/3视场的物体,同时控制现场外部光线不出现明显变化,保证直视型微光装备空间位置不变,点击软件拍照功能,存储为模板;

    2)相似度判决阈值确定:正式试验前,录制一段被试品目镜视场的视频,期间通过人为开关机操作和遮挡目镜镜头等方式模拟故障,将视频逐帧图像与选定的模板进行比较,得到系列相似度值,将其与故障现象对照,确定出故障出现的最大相似度值,进而作为相似度判决阈值;

    3)对于筛选出的异常图像,需发出警告信息并记录序号和时间信息,与图像一起存入告警文件夹。

    本文基于MATLAB GUI设计开发直视型微光装备可靠性自动诊断软件,界面如图 2所示。

    根据1.2的描述选择图像采集设备,按照图 3所示的方式通过转接环连接图像采集设备与直视型微光装备目镜。被试微光夜视仪开机,通过相机参数调节,使拍摄到的图像满足观察和软件处理需求。本文实践中依据测试实际情况设置相机采样频率为1 Hz。

    图  3  图像采集设备与被测设备连接图
    Figure  3.  Connection diagram of image acquisition device and equipment under test

    设置模板图像为设备正常工作时相机传回的监视图像,如图 4

    图  4  模板图像
    Figure  4.  Template image

    直视型微光装备可靠性试验主要检测一定工作时间内装备是否正常工作,可能出现的故障有:设备非正常关机、图像质量非正常变化等[3, 13]。故障发生时,监视器中的图像主要表现为:视场出现黑斑、十字刻度消失、黑屏。

    采集过程中,通过人为开关机操作和遮挡被试品目镜镜头等方式模拟微光夜视仪可靠性试验过程中出现故障的情况,可覆盖故障时视场变化情况。共获得93幅图像,其中故障图像15幅,如图 5(下标为对应图像在模拟试验获取的图像序列中的编号),构成本文装备可靠性试验工作图像数据集。

    图  5  故障模拟图像
    Figure  5.  Fault simulation images

    利用SSIM算法进行图像相似度计算,采集的监视图像与模板图像相似度计算结果如图 6所示;根据图像序号挑选出相似度小于设定阈值(根据SSIM分布特征和历史经验数据提前确定,本文取0.5)的图像,用“*”表示,这些图像正是数据集中模拟所得的故障图像。故障检测率达到100%且未出现虚警。

    图  6  相似度计算结果
    Figure  6.  Results of similarity calculation

    该试验证明,通过合理地设置相似度阈值,SSIM算法能够准确地诊断出可靠性试验过程中,被试装备图像的异常情况。

    直视型微光装备的可靠性试验一般在暗室条件下进行。由于装备对环境照度变化十分敏感,需要保持室内环境照度相对稳定。实际试验中,物体移动、光源发生变化等都会引起室内环境照度不同程度变化[14-15]图 7(a)显示了某次试验中模拟人员走动、开关门和使用手机时暗室环境的照度变化曲线,图 7(b)展示了采集的对应图像与模板图像的SSIM值。其中,用“*”标记的点为与模板图像相似度小于0.5的图像。可以看到,微小的照度变化引起了被试品图像的显著变化。图 8(下标为对应图像在模拟试验获取的图像序列中的编号)展示了部分相似度小于0.5也被错误识别为异常的图像。

    图  7  环境照度变化对相似度计算结果的影响
    Figure  7.  Influence of environmental illumination changes on the results of similarity calculation
    图  8  因环境照度变化时被误识别为故障的图片
    Figure  8.  Images misidentified as malfunction due to changes in environmental illuminance

    可见,室内照度变化会显著影响SSIM算法图像诊断的准确性。在实际可靠性试验过程中,应该尽可能保证室内照度的稳定,从而提高算法诊断的准确性。

    本文针对传统的直视型微光装备可靠性试验故障诊断中的不足,讨论了一种基于机器视觉的自动故障诊断方法。该方法通过设计转接环连接工业相机与被试装备目镜,自动采集传输监视图像,采用SSIM算法计算测试图像与模板的相似度从而判断设备是否发生异常。实践表明该方法很好地符合了人工视觉观察判断的结果,可为实现装备可靠性自动故障检测提供有力支撑,同时指出试验环境照度变化对试验结果的显著影响。

  • 图  1   训练数据集部分样本

    Figure  1.   Somesamples of the training data set

    图  2   目标检测流程图

    Figure  2.   Flow chart of target detection

    图  3   通过中心点预测候选框

    Figure  3.   The candidate box is predicted by the center point

    图  4   多个满足条件的候选框

    Figure  4.   Several candidate boxes that satisfy the criteria

    图  5   预测框与GT box三种不同位置关系图

    Figure  5.   Three different position relation diagrams of prediction box and GT box

    图  6   高斯卷积核改进前后的Boundingbox和Heatmap示意图

    Figure  6.   Bounding box and Heat map before and after the improvement of Gaussian convolution kernel

    图  7   σ=1的高斯核函数

    Figure  7.   The Gaussian kernel at σ=1

    图  8   σ=5的高斯核函数

    Figure  8.   The Gaussian kernel at σ=5

    图  9   部分检测结果图

    Figure  9.   Some detection result graph

    表  1   红外图像数据集

    Table  1   Infrared image data set

    Classname Label name Picture numbers
    Arrester Arrester 123
    Breaker Breaker 166
    Current transformer Current transformer 137
    Disconnector Disconnector 73
    Electricreactor Electricreactor 150
    Voltage transformer Voltage transformer 303
    Aerial conductor Aerial conductor 86
    Condenser Condenser 236
    Main transformer Main transformer 224
    Tubular busbar Tubular busbar 72
    下载: 导出CSV

    表  2   计算机硬件配置

    Table  2   Computer hardware configuration

    Name Type
    CPU Intel Core I7 9700K
    GPU Nvidia RTX 2080 Ti
    hard disk 4T SAS 7.2K*1
    memory 512 G
    下载: 导出CSV

    表  3   红外图像数据集测试结果

    Table  3   Test results of infrared image data set

    bn Model mAP Epoch hm_loss wh_loss off_loss Loss
    DLA-34 before 0.685 200 1.2178887 3.385998 0.229195 1.646682
    after 0.705 200 1.1233817 2.775918 0.212195 1.415212
    Res-101 before 0.661 200 0.396270 3.179799 0.244151 1.138400
    after 0.723 200 0.521400 1.897403 0.232067 1.043208
    Res-18 before 0.463 200 0.451421 2.713203 0.262212 0.994953
    after 0.582 200 0.813421 2.113203 0.256721 0.87198
    下载: 导出CSV

    表  4   针对变电站真实条件下的性能试验记录表

    Table  4   Performance test record for substation

    Type Picture numbers Target numbers Correct detection
    number
    Average accuracy Miss raio Fallout ratio Total time
    Aerialconductor 12 16 12 0.750 0.250 0 1.080
    Arrester 38 62 54 0.871 0.129 0 3.040
    Breaker 45 125 114 0.912 0.024 0.064 4.562
    Condenser 83 83 71 0.855 0.133 0.012 8.088
    Currenttransformer 33 91 83 0.912 0.030 0.058 2.699
    Disconnector 16 16 13 0.813 0.187 0 1.746
    Electricreactor 34 65 56 0.862 0.138 0 2.919
    Maintransformer 42 42 36 0.857 0.143 0 3.606
    Tubular busbar 8 15 12 0.800 0.200 0 0.874
    Voltagetransformer 76 146 133 0.911 0.048 0.041 6.519
    下载: 导出CSV
  • [1]

    Junwei Hsieh, Yungtai Hsu, Hongyuan Mark Liao, et al. Video-based human movement analysis and its application to surveillance systems[J]. IEEE Transactions on Multimedia, 2008, 10(3): 372-384. DOI: 10.1109/TMM.2008.917403

    [2] 黄文清, 汪亚明, 周志宇. 计算机视觉技术在工业领域中的应用[J]. 浙江理工大学学报: 自然科学版, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm

    HUANG Wenqing, WANG Yaming, ZHOU Zhiyu. Application of computer vision technology in the field of industry[J]. Journal of Zhejiang Institute of Science and Technology, 2002, 19(2): 28-32. https://www.cnki.com.cn/Article/CJFDTOTAL-ZJSG200202005.htm

    [3]

    Leonid Sigal, Michael J Black. Guest editorial: state of the art in image- and video-based human pose and motion estimation[J]. International Journal of Computer Vision, 2010, 87(1): 1-3. http://dl.acm.org/citation.cfm?id=1713483

    [4]

    Yuki Kitahara, Seiji Takahashi, Noriyuki Kuramoto. Ion attachment mass spectrometry combined with infrared image furnace for thermal analysis: evolved gas analysis studies[J]. Analytical Chemistry, 2009, 81(8): 3155-3158. DOI: 10.1021/ac802746d

    [5] 王勇, 梅生伟, 何光宇. 变电站一次设备数字化特征和实现[J]. 电力系统自动化, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm

    WANG Yong, MEI Shengwei, HE Guangyu. The characteristics and realization of digitization of primary equipment in substations[J]. Automation of Electric Power Systems, 2010, 34(13): 94-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DLXT201013019.htm

    [6]

    Felzenszwalb P F, Girshick R B, Mcallester D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Software Engineering, 2010, 32(9): 1627-1645. http://ieeexplore.ieee.org/document/5255236

    [7] 方路平, 何杭江, 周国民. 目标检测算法研究综述[J]. 计算机工程与应用, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167

    FANG Luping, HE Hangjiang, ZHOU Guomin. Research overview of object detection methods[J]. Computer Engineering and Applications, 2018, 54(13): 11-18. DOI: 10.3778/j.issn.1002-8331.1804-0167

    [8] 阮激扬. 基于YOLO的目标检测算法设计与实现[D]. 北京: 北京邮电大学, 2019.

    RUAN Jiyang. Design and Implementation of Target Detection Algorithm Based on YOLO[D]. Beijing: Beijing University of Posts and Telecommunications, 2019.

    [9] 李鹏飞, 刘瑶, 李珣, 等. YOLO9000模型的车辆多目标视频检测系统研究[J]. 计算机测量与控制, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm

    LI Pengfei, LIU Yao, LI Xun, et al. A detection method of multi-target for vehicles based on YOLO9000 model[J]. Computer Measurement & Control, 2019, 27(8): 21-24. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201908006.htm

    [10] 季航, 贾镕, 刘晓, 等. 一种基于YOLOv3的红外目标检测系统[J]. 电子设计工程, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm

    JI Hang, JIA Rong, LIU Xiao, et al. An infrared target detection system based on YOLOv3[J]. Electronic Design Engineering, 2019, 27(22): 61-64. https://www.cnki.com.cn/Article/CJFDTOTAL-GWDZ201922013.htm

    [11] 栾浩, 王力, 姜敏, 等. 基于改进SSD的目标检测方法[J]. 软件, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm

    LUAN Hao, WANG Li, JIANG Min, et al. Object detection method based on improved SSD[J]. Computer Engineering & Software, 2020, 41(1): 29-35. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202001008.htm

    [12] 谢奇芳, 姚国清, 张猛. 基于Faster R-CNN的高分辨率图像目标检测技术[J]. 国土资源遥感, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm

    XIE Qifang, YAO Guoqing, ZHANG Meng. Research on high resolution image object detection technology based on Faster R-CNN[J]. Remote Sensing for Land & Resources, 2019, 31(2): 38-43. https://www.cnki.com.cn/Article/CJFDTOTAL-GTYG201902006.htm

    [13]

    DUAN K, BAI S, XIE L, et al. CenterNet: keypoint triplets for object detection[C]//IEEE International Conference on Computer Vision, 2019: 6569-6578.

    [14] 杨海燕, 蒋新华, 聂作先. 基于并行卷积神经网络的人脸关键点定位方法研究[J]. 计算机应用研究, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm

    YANG Haiyan, JIANG Xinhua, NIE Zuoxian. Facial key points location based on parallel convolutional neural network[J]. Application Research of Computers, 2015, 32(8): 283-285. https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201508068.htm

    [15] 刘云鹏, 裴少通, 武建华, 等. 基于深度学习的输变电设备异常发热点红外图片目标检测方法[J]. 南方电网技术, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm

    LIU Yunpeng, PEI Shaotong, WU Jianhua, et al. Deep learning based target detection method for abnormal hot spots infrared images of transmission and transformation equipment[J]. Southern Power System Technology, 2019, 13(2): 27-33. https://www.cnki.com.cn/Article/CJFDTOTAL-NFDW201902006.htm

    [16] 林海波, 王浩, 张毅. 改进高斯核函数的人体姿态分析与识别[J]. 智能系统学报, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm

    LIN Haibo, WANG Hao, ZHANG Yi. Human postures recognition based on the improved Gauss kernel function[J]. CAAL Transactions on Intelligent Systems, 2015, 10(3): 436-441. https://www.cnki.com.cn/Article/CJFDTOTAL-ZNXT201503021.htm

    [17]

    WU Jiajun, XUE Tianfan, Joseph J. Lim. Single image 3D interpreter network[C]// European Conference on Computer Vision, 2016: 1-18.

    [18] 莫邵文, 邓新蒲, 王帅, 等. 基于改进视觉背景提取的运动目标检测算法[J]. 光学学报, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm

    MO Shaowen, DENG Xinpu, WANG Shuai, et al. Moving object detection algorithm based on improved visual background extractor[J]. Acta Optica Sinica, 2016(6): 196-205. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB201606025.htm

    [19] 朱伯伟, 庾农, 肖松. 红外极小目标检测算法研究[J]. 航空电子技术, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm

    ZHU Bowei, YU Nong, XIAO Song. Approaches on infrared point targets detection algorithm[J]. Avionics Technology, 2011, 42(3): 5-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HKDZ201103001.htm

图(9)  /  表(4)
计量
  • 文章访问数:  553
  • HTML全文浏览量:  154
  • PDF下载量:  50
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-04-15
  • 修回日期:  2020-12-27
  • 刊出日期:  2021-04-01

目录

/

返回文章
返回