基于红外和可见光图像融合的绝缘子故障识别

王勇, 杨羽, 刘津硕, 于海博, 刘博

王勇, 杨羽, 刘津硕, 于海博, 刘博. 基于红外和可见光图像融合的绝缘子故障识别[J]. 红外技术, 2025, 47(5): 648-655.
引用本文: 王勇, 杨羽, 刘津硕, 于海博, 刘博. 基于红外和可见光图像融合的绝缘子故障识别[J]. 红外技术, 2025, 47(5): 648-655.
WANG Yong, YANG Yu, LIU Jinshuo, YU Haibo, LIU Bo. Insulator Fault Recognition Based on Fusion of Infrared and Visible Light Images[J]. Infrared Technology , 2025, 47(5): 648-655.
Citation: WANG Yong, YANG Yu, LIU Jinshuo, YU Haibo, LIU Bo. Insulator Fault Recognition Based on Fusion of Infrared and Visible Light Images[J]. Infrared Technology , 2025, 47(5): 648-655.

基于红外和可见光图像融合的绝缘子故障识别

基金项目: 

国家电网科技项目“基于无人机多光谱融合图像的复合绝缘子典型缺陷识别技术研究” SGJLCG00YJJS2300190

详细信息
    作者简介:

    王勇(1982-),男,硕士,高级工程师,研究方向:电力系统输变电设备运维、检修,E-mail:WANGYong1339@163.com

  • 中图分类号: TM854,TP391.4

Insulator Fault Recognition Based on Fusion of Infrared and Visible Light Images

  • 摘要:

    为了解决传统的绝缘子故障检测方法不能全面捕捉细节和小目标检测性能差的问题,提出了一种基于双流注意机制的生成对抗网络(Deep Supervised Attention Generative Adversarial Network,DSAGAN)和YOLOv8的绝缘子故障识别方法。通过DSAGAN对绝缘子红外图像和可见光图像进行融合,在生成对抗网络(Generative Adversarial Network,GAN)的生成器中引入注意力机制增强融合特征来改进融合质量,GAN的生成器与判别器得到的结果互相竞争而形成对抗网络,并采用最小二乘法(Least Squares,LS)代替交叉熵损失作为DSAGAN的损失函数,以保留更多图像细节,增强DSAGAN的稳定性。采用YOLOv8目标检测算法对融合后的图像进行故障识别。实验表明:通过DSAGAN融合后的绝缘子图像的5个评价指标均高于其他7种融合方案;YOLOv8目标检测算法对绝缘子破损、闪络、玻璃损耗、聚合物污秽的检测平均精确率mAP@0.5和mAP@0.5:0.95分别达到了0.917和0.639,相比于YOLOv5分别提高了0.026和0.08。融合图像在不同绝缘子故障的识别率均高于单一的红外或可见光图像,平均识别率达到了93%,相比红外和可见光分别提高了6.25和4.5个百分点。

    Abstract:

    To address the limitations of traditional insulator fault detection methods: specifically the inadequate capture of details and poor performance in identifying small targets, a novel dual-stream attention-based approach is proposed. This method combines a deep supervised attention generative adversarial network (DSAGAN) with the YOLOv8 object detection algorithm. In the proposed DSAGAN, infrared and visible light images of insulators are fused using an attention mechanism embedded within the generator of the generative adversarial network (GAN) to enhance fusion quality. The generator and discriminator form an adversarial network, where the least squares (LS) loss function is employed instead of the conventional cross-entropy loss. This substitution helps preserve finer image details and improves the stability of the DSAGAN. The fused images are then subjected to fault detection using the YOLOv8 object detection algorithm. Experimental results demonstrate that the five evaluation indexes of the insulator images fused by DSAGAN outperform those of seven other fusion methods. YOLOv8 object detection algorithm achieves a mean average precision (mAP) of 0.917 and 0.639 for detecting insulator damages, flashovers, glass losses, and polymer contaminations at thresholds of 0.5 and 0.5 to 0.95, respectively, representing improvements of 0.026 and 0.08 compared to YOLOv5. Furthermore, the fault recognition rates of fused images for different types of insulator faults surpass those of single infrared or visible light images. The average recognition rate reaches 93%, marking improvements of 6.25% and 4.5% over infrared and visible light images, respectively.

  • 绝缘子故障识别技术是电力系统运行和维护中的关键方面。为了保障系统的安全运行,及时发现和准确识别绝缘子故障至关重要[1]。红外热像图可以直观地反映绝缘子表面的温度分布情况,从而快速发现异常热点,如局部放电、温度异常等[2]。而可见光图像则可以提供更多详细的视觉信息,例如绝缘子的形状、外观等[3]。通过识别这些特征信息来判别绝缘子的故障。

    在红外检测技术方面:文献[4]提出了基于ARG-Mask RCNN的缺陷检测方法,该方法以红外成像为数据源,对受损绝缘子的特征进行评估。增加了注意机制来改进残差网络101(ResNet101)的结构,能够快速识别小目标的位置。并采用遗传算法结合梯度下降算法(Genetic Algorithm combined with Gradient Descent Algorithm,GA-GD)对模型超参数进行优化,使模型训练结果尽可能接近全局最优。文献[5]提出了一种基于二值鲁棒不变可伸缩关键点(Binary Robust Invariant Scalable Keypoints,BRISK)和局部聚合描述子向量(Vector of Locally Aggregated Descriptors, VLAD)的红外图像绝缘子串外观表示方法,将基于支持向量机的分类模型集成到多尺度滑动窗口框架中,用于红外图像中绝缘子串的定位。然后通过非极大值抑制和形状先验知识约束合并冗余区域。文献[6]在2000张红外图像上对提出的卷积神经网络模型进行了测试,对900张2类绝缘子的红外图像做图像生成处理来扩充数据,使用数据增强方法对神经网络进行训练。使用度量和损失函数等统计特征来显示训练过程中神经网络参数(权重)的最小化和优化。该方法与评估神经网络相结合,在检测绝缘子故障之前对绝缘子进行检测。

    在可见光图像识别技术方面:文献[7]提出了一种基于深度学习和形态检测的光学图像检测方法。首先,使用Faster RCNN对绝缘子进行定位,并从检测图像中提取其目标图像。采用形状变换方法,将各种类型的绝缘子检测统一起来。并在二值图像中建立了描述绝缘子缺陷的数学模型。文献[8]提出了一种改进的CenterNet绝缘子缺陷检测模型,采用MobileNet V1替代原模型中的Resnet-18,并在检测部分引入双通道注意力模块,使模型能够预测目标类别信息,采用DIoU-NMS过滤冗余框来解决中心点预测不准确导致的单目标多框问题。文献[9]利用优化后的U-net模型获得绝缘子区域的掩模图像,实现绝缘子的语义分割;然后建立YOLOv4模型,获取缺陷绝缘子的位置,实现对自爆绝缘子的检测。并提出了“分割-识别-综合”模型,对绝缘子进行精确分割,获得缺陷区域。

    采用单一的红外或可见光图像源进行绝缘子故障识别的方法存在信息不全、数据量有限、红外图像难以解释、光照条件限制以及特定故障难以检测等方面的缺陷。所以本文结合了红外和可见光图像的优势,提出了一种基于双流注意机制的生成对抗网络(Deep Supervised Attention Generative Adversarial Network,DSAGAN)和YOLOv8的绝缘子故障识别方法,先采用DSAGAN将绝缘子红外图和可见光图像融合在一起,再通过训练好的YOLOv8网络进行绝缘子缺陷识别。

    红外和可见光图像在采集的过程中会受到如热噪声、传感器噪声等影响。所以使用适当的滤波器(如均值滤波、中值滤波、高斯滤波、双边滤波)可以减少这些噪声的影响,使图像更清晰,以提高后续处理的效果。如图 1所示,均值滤波和高斯滤波使图像模糊,弱化绝缘子轮廓等细节;双边滤波虽能保留一定边缘,但视觉效果改善有限且计算量大;中值滤波有效抑制噪声,同时清晰保留绝缘子边缘轮廓与细节,细节保留较好,所以选用中值滤波作为图像的滤波器[10]。同时还采用直方图均衡化来增强图像的细节和可视化效果。接着对红外和可见光图像进行灰度归一化,使它们在灰度范围上具有一致性,以便进行后续配准和融合。

    图  1  图像预处理
    Figure  1.  Image preprocessing

    由于红外采集设备和可见光采集设备在空间上存在一定的差异,导致两图像的特征点或特征区域对应关系产生偏差而影响融合质量。所以需要对两种图像进行配准,起到对齐图像、建立特征匹配、保持几何一致性以及信息补充与强化的作用,以提高融合图像的质量和准确性,进而提升后续故障识别等任务的效果。采用尺度不变特征变换(Scale-invariant feature transform,SIFT)[11]提取红外和可见光图像中的特征点,对提取到的特征点进行匹配,以建立两幅图像之间的对应关系,通过匹配的特征点,采用投影变换来估计红外和可见光图像之间的几何变换关系,如图 2所示。

    图  2  SIFT特征点匹配结果
    Figure  2.  SIFT feature point matching result

    由于传统的生成对抗网络(generative adversarial network, GAN)[12]在进行图像融合时会丢失一些细节信息而导致融合质量下降,且存在训练不稳定的问题。所以本文提出了一种基于双流注意机制的生成对抗网络(DSAGAN)对绝缘子红外图像和可见光图像进行融合。在DSAGAN的生成器中,使用双流架构和多尺度卷积来提取图像的深层特征,并采用最小二乘(Least Squares Method, LS)损失函数来增强网络的稳定性。并从融合图像的边缘信息保持度(QAB/F)、信息熵(EN)、互信息(MI)、均方误差(MSE)、结构相似性(SSIM)五个评价指标对融合图像进行评价[13],与常见的几种融合方法形成对比。

    DSAGAN网络是采用双流注意机制对传统GAN进行优化的一种算法模型,包括生成器和判别器,生成器的目标是生成高质量的融合图像,而判别器的目标则是准确区分真实图像和生成图像。生成器和判别器通过对抗学习进行竞争和协作来实现融合图像的输出。DSAGAN网络结构如图 3所示。

    图  3  DSAGAN网络结构
    Figure  3.  DSAGAN's network structure

    生成器中包含了多尺度特征提取模块、3个注意力模块S1S2S3、特征级联过程(Concat),S1S2组合成双流注意机制,以提高提取图像的多尺度特征的能力,S3作为增强级联特征,以增强融合特征。多尺度特征提取模块包含了G11G21为1×1的卷积核,G12G22为3×3的卷积核,G13G23为5×5的卷积核,输入维度和输出维度均为1和64。注意力模块S1S2是相同的,均含有一个5×5的卷积核G14G24及一个7×7的卷积核,输入输出维度均为64,红外图像和可见光图像分两路输入,经多尺度特征提取模块卷积操作提取特征,再分别由注意力模块S1S2提取深层特征,采用空间注意力机制来增强深层特征,再由Concat将增强后的特征级联在一起,从而得出融合的特征。通过注意力模块S3再次增强融合特征,即经卷积核G6(1×1)、G7(1×1)从128维特征降到卷积核G8(1×1)的64维特征。最后通过卷积核G9(1×1)将64维特征降低到1维图像特征,从而得到融合图像。

    注意力模块S1S2相同,由G14G15G24G25)两个卷积运算、3个矩阵乘积(Matrix Multiply)运算和3个矩阵加法(Matrix Addition)运算组成,计算公式为:

    $$ I_{\mathrm{o} 1}=\boldsymbol{G}_{11}\left(I_1\right)+\boldsymbol{G}_{12}\left(I_1\right)+\boldsymbol{G}_{13}\left(I_1\right) $$ (1)
    $$ I_{\mathrm{o} 1^{\prime}}=\boldsymbol{G}_{14}\left(I_{\mathrm{o} 1}\right)+\boldsymbol{G}_{14}\left(I_{\mathrm{o} 1}\right) \times I_{\mathrm{o} 1} $$ (2)
    $$ f_1=\boldsymbol{G}_{15}\left(I_{\mathrm{o} 1}{ }^{\prime}\right)+\boldsymbol{G}_{15}\left(I_{\mathrm{o} 1}{ }^{\prime}\right) \times I_{\mathrm{o} 1}+\boldsymbol{G}_{15}\left(I_{\mathrm{o} 1}{ }^{\prime}\right) \times I_{\mathrm{o} 1}{ }^{\prime} $$ (3)

    同理可以得出:

    $$ f_2=\boldsymbol{G}_{25}\left(I_{\mathrm{o} 2}{ }^{\prime}\right)+\boldsymbol{G}_{25}\left(I_{\mathrm{o} 2}{ }^{\prime}\right) \times I_{\mathrm{o} 2+} \boldsymbol{G}_{25}\left(I_{\mathrm{o} 2}{ }^{\prime}\right) \times I_{\mathrm{o} 2}{ }^{\prime} $$ (4)

    式中:Io1Io2分别表示输入的红外图像和可见光图像提取到的多尺度特征;f1f2分别为注意力模块S1S2的输出特征。

    注意力模块S3G6G7两个卷积运算,两个Matrix Multiply运算和两个Matrix Addition运算组成,S3的输出特征f3表示为:

    $$ f_2=\boldsymbol{G}_7\left(\boldsymbol{G}_6\left(f_{\mathrm{c}}\right)\right)+\boldsymbol{G}_7\left(\boldsymbol{G}_6\left(f_{\mathrm{c}}\right)\right) \times f_1+\boldsymbol{G}_7\left(\boldsymbol{G}_6\left(f_{\mathrm{c}}\right)\right) \times f_2 $$ (5)

    式中:fc=Concat(f1, f2),表示f1f2的级联特征,级联前,f1f2的特征维度为64,级联后fc增加到了128维特征。

    判别器由6个卷积层D1~D6和1个池化层P1组成,卷积层D1将特征维度提高到64,经过D2后达到128,到了D3D4D5的特征维度均升到了512,到D6后特征维度降到了1,最后由Sigmoid激活函数[14]计算出判别值。在判别器的更新阶段,接收输入图像并将其判定为真实图像,并将融合图像判定为虚假图像。这样做可以使判别器成为一个强大的分类器,能够准确判断图像的真实性。在生成器的更新阶段,判别器会将生成的融合图像判定为真实图像,而这将迫使生成器改进融合质量,使生成的图像更加接近真实图像。当判别器无法准确区分输入图像和融合图像的真实性时,即达到了一个平衡点,训练过程结束。

    交叉熵损失函数[15]是GAN网络中常用的一种损失函数,这种损失函数使得生成器和判别器之间存在梯度消失和不稳定性的问题。而LS损失是通过计算生成图像和真实图像之间的均方误差来定义的[16]。可以使生成器更加稳定地学习图像的特征,并且能够更好地捕捉到细节信息。因此本文LS损失函数代替交叉熵损失做为DSAGAN的损失函数,以提高网络的训练效果,生成更逼真和高质量的融合图像。LS损失函数表达式为:

    生成器损失函数:

    $$ G = \frac{1}{2}{E_{z :\; {P_z}}}{\left[ {D\left( {G\left( Z \right) - 1} \right)} \right]^2} $$ (6)

    判别器损失函数:

    $$ D = \frac{1}{2}{E_{x :\; {P_{\text{r}}}}}{\left[ {D\left( x \right) - 1} \right]^2} + \frac{1}{2}{E_{z :\; {P_z}}}{\left[ {D\left( {G\left( z \right)} \right)} \right]^2} $$ (7)

    式(6)和(7)中:G表示生成器;D表示判别器;x为真实样本;z表示随机变量,服从正态分布;$ {E_{x :\; {P_{\text{r}}}}} $和$ {E_{z :\; {P_z}}} $表示期望值。在DSAGAN中,生成器的目标是生成能够欺骗判别器的样本,因此它的损失函数中的目标是使判别器对生成样本的判别结果尽可能接近1,[D(G(Z)-1)]2是生成样本被判别器预测为真实样本的差异的平方。判别器的目标是准确地将真实样本和生成样本进行区分,因此它的损失函数中的目标是使对于真实样本,判别器预测为1,对于生成样本,判别器预测为0,[D(x)-1]2表示真实样本被判别器预测为真实样本的差异的平方,[D(G(z))]2表示生成样本被判别器预测为生成样本的差异的平方。

    为了判别DSAGAN网络模型的可行性,将该算法与比值变换法(Brovey)[17]、空间变换算法(Intensity Hue Saturation,IHS)[18]、小波变换法(wavelet transform,WT)[19]、区域最大值(Area Maximum,AM)[20]、加权平均法(Weighted Average,WA)[21]、主成分分析法(Principal Component Analysis,PCA)[22]、GAN算法进行对比,分别从主观图像及边缘信息保持度(QAB/F)、信息熵(EN)、互信息(MI)、均方误差(MSE)、结构相似性(SSIM)5个评价指标对融合图像进行评价。

    图 4中可以看出,Brovey、IHS、AM等图像融合方法得到的图像失真度较大,WT融合图像比较模糊,WA、PCA、GAN、DSAGAN融合后的图像看起来没什么区别,效果都比较好。所以需要对这几幅图进行客观评价,如表 1所示。

    图  4  不同融合方法得到的融合图像
    Figure  4.  Fusion images obtained by different fusion methods
    表  1  不同融合方法下的图像质量评价指标
    Table  1.  Image quality evaluation indexes using different fusion methods
    Method QAB/F EN MI MSE SSIM
    Brovey 0.86188 6.2284 2.5813 0.096451 0.5165
    IHS 0.83891 6.8724 3.0206 0.32074 0.1537
    WT 0.86796 7.0171 3.1897 0.042609 0.5573
    AM 0.85822 6.9539 3.0431 0.10179 0.4546
    WA 0.84588 7.0275 3.2610 0.04234 0.4713
    PCA 0.86304 7.0496 3.1759 0.043278 0.5559
    GAN 0.86331 7.0489 3.1799 0.043147 0.5566
    DSAGAN 0.90551 7.0876 3.2901 0.039689 0.5617
    下载: 导出CSV 
    | 显示表格

    表 1中可以看出,经DSAGAN融合后的图像在QAB/F、EN、MI、MSE、SSIM五个客观指标方面均优于其他7种融合方法,表明本方法融合效果较好。

    从采集的图像来看,绝缘子故障特征图在整张图上的占比较小,属于小目标和密集目标。YOLOv8是目前最新推出来的一种网络模型,其在泛化能力和小目标检测等方面表现出显著的优势[23]。YOLOv8借助深度卷积神经网络的强大特征表示能力,通过在大规模数据集上进行训练,能够学习到更复杂和具体的绝缘子故障特征,并具有更好的泛化能力,可以适应不同场景和环境下的绝缘子故障检测任务。

    YOLOv8网络结构是YOLOv5的改进版,包含了骨干网络(Backbone)、检测头模块(Head)和融合处理模块(Neck)[24]。仍然采用了CSP和PAN思想,但删除了YOLOv5中PAN-FPN上采样阶段的1×1的卷积结构,并引入了C2f模块替代YOLOv5的C3模块,同时保留了YOLOv5的SPPF模块。在目标检测任务中,YOLOv8使用解耦头结构(Decoupled Head)替代了锚框生成候选框(Anchor Based)的方法[25]。采用了Task-Aligned Assigner分配器,基于任务相关性将每个目标检测任务分配给不同的Anchor或Anchor组合,以更好地分配正负样本,从而提高模型的学习效率和准确度。在损失函数上,YOLOv8使用了VFL Loss作为分类损失,使用DFL Loss+CIOU Loss作为损失函数[26]。DFL引入了动态分类权重,根据样本的难易程度调整每个正样本的分类权重,增加对困难样本的关注程度,以提高模型的性能。如图 5为YOLOv8的网络结构。

    图  5  YOLOv8的网络结构
    Figure  5.  The network structure of YOLOv8

    为了验证YOLOv8网络在绝缘子故障识别中的性能,采用6000张带有故障的绝缘子图片进行训练,如图 6所示。并用Labelimg软件对这些图片进行了标记,生成.xml文件,将标签数据划分为绝缘盘破损(broken disc)、污闪(pollution flashover)、绝缘子片损失(glass loss)、聚合物污秽(polymer dirty),训练集: 验证集: 测试集的比例为8:1:1。

    图  6  绝缘子故障图
    Figure  6.  Insulator failure photos

    为了评估分类模型的性能,并帮助我们在模型预测和召回之间进行权衡和选择,分别绘制了YOLOv8和YOLOv5的F1得分曲线F1_curve和精确率-召回率对比图。

    F1得分曲线是综合考虑了精确率和召回率的一个度量指标,可以量化分类模型的性能。其取值范围在0和1之间,越接近1表示模型的性能越好。如图 7(a)(b)分别为YOLOv5和YOLOv8的F1得分曲线F1_curve,YOLOv5网络置信度为0.613时,故障类型平均的F1分数最高,为0.86YOLOv8网络置信度为0.410时,故障类型平均的F1分数最高,为0.91表明YOLOv8在故障识别和分类方面的能力优于YOLOv5。

    图  7  不同模型的F1得分曲线
    Figure  7.  The F1-score curves of different models

    图 8为YOLOv5和YOLOv8的精确率-召回率曲线PR_curve(Precision-Recall Curve)对比,从图中可以看出,YOLOv8网络在IoU(Intersection over Union)[27]阈值为0.5时,平均精确率mAP为0.917,比YOLOv5提高0.026,IoU阈值为0.5:0.95时,平均准确率mAP为0.639,比YOLOv5提高了0.08。表明YOLOv8网络对小目标检测的精度更高,具有更强的小目标缺陷特征提取能力。

    图  8  精确率-召回率对比
    Figure  8.  Comparison of precision-recall curves

    将融合后的图像导入训练好的YOLOv8网络模型中进行识别,模型会输出检测到的物体边界框的位置信息、类别标签及其置信度得分。根据置信度得分进行筛选和后处理操作,以过滤掉低置信度的检测结果,从而得到最终的目标检测结果,如图 9所示。

    图  9  YOLOv8网络预测效果展示
    Figure  9.  YOLOv8's network prediction effect is displayed

    对在不同环境(如树叶遮挡、粉尘、雨雪、强光、潮湿环境等)下运行的绝缘子进行图像采集,每种故障特征分别采集100张红外图像和100张可见光图像进行识别,以验证本文提出的DSAGAN融合算法的准确性和可行性。不同图片类型识别率对比如表 2所示。

    表  2  不同图片类型识别率对比
    Table  2.  Comparison of recognition rates of different image types %
    Fault type Visible light image Infrared image Fused image
    Insulation disc damage 88 90 93
    Pollution flashover 85 81 91
    Insulator piece loss 93 92 96
    Polymer contamination 88 84 92
    下载: 导出CSV 
    | 显示表格

    表 2中可以看出,融合图像在不同绝缘子故障的识别率均高于单一的红外或可见光图像,平均识别率达到了93%,相比红外和可见光分别提高了6.25个百分点和4.5个百分点。

    本文提出了一种基于双流注意机制的生成对抗网络(DSAGAN)和YOLOv8的绝缘子故障识别方法。通过DSAGAN融合后的绝缘子图像在边缘信息保持度(QAB/F)、信息熵(EN)、互信息(MI)、均方误差(MSE)、结构相似性(SSIM)五个评价指标上优于比值变换法(Brovey)、IHS、WT、AM、WA、PCA、GAN算法。且平均准确率mAP@0.5和mAP@0.5:0.95分别达到了0.917和0.639。融合图像相比于单一的红外或可见光图像在不同绝缘子故障的识别率上均有提升,平均识别率达到了93%,相比红外和可见光分别提高了6.25个百分点和4.5个百分点。表明该方法在融合质量和故障识别准确率上都取得了较好的结果,为绝缘子故障识别领域的进一步研究提供了有价值的参考。

  • 图  1   图像预处理

    Figure  1.   Image preprocessing

    图  2   SIFT特征点匹配结果

    Figure  2.   SIFT feature point matching result

    图  3   DSAGAN网络结构

    Figure  3.   DSAGAN's network structure

    图  4   不同融合方法得到的融合图像

    Figure  4.   Fusion images obtained by different fusion methods

    图  5   YOLOv8的网络结构

    Figure  5.   The network structure of YOLOv8

    图  6   绝缘子故障图

    Figure  6.   Insulator failure photos

    图  7   不同模型的F1得分曲线

    Figure  7.   The F1-score curves of different models

    图  8   精确率-召回率对比

    Figure  8.   Comparison of precision-recall curves

    图  9   YOLOv8网络预测效果展示

    Figure  9.   YOLOv8's network prediction effect is displayed

    表  1   不同融合方法下的图像质量评价指标

    Table  1   Image quality evaluation indexes using different fusion methods

    Method QAB/F EN MI MSE SSIM
    Brovey 0.86188 6.2284 2.5813 0.096451 0.5165
    IHS 0.83891 6.8724 3.0206 0.32074 0.1537
    WT 0.86796 7.0171 3.1897 0.042609 0.5573
    AM 0.85822 6.9539 3.0431 0.10179 0.4546
    WA 0.84588 7.0275 3.2610 0.04234 0.4713
    PCA 0.86304 7.0496 3.1759 0.043278 0.5559
    GAN 0.86331 7.0489 3.1799 0.043147 0.5566
    DSAGAN 0.90551 7.0876 3.2901 0.039689 0.5617
    下载: 导出CSV

    表  2   不同图片类型识别率对比

    Table  2   Comparison of recognition rates of different image types %

    Fault type Visible light image Infrared image Fused image
    Insulation disc damage 88 90 93
    Pollution flashover 85 81 91
    Insulator piece loss 93 92 96
    Polymer contamination 88 84 92
    下载: 导出CSV
  • [1]

    LIU J, LIU C, WU Y, et al. An improved method based on deep learning for insulator fault detection in diverse aerial images[J]. Energies, 2021, 14(14): 4365. DOI: 10.3390/en14144365

    [2]

    WANG B, DONG M, REN M, et al. Automatic fault diagnosis of infrared insulator images based on image instance segmentation and temperature analysis[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(8): 5345-5355. DOI: 10.1109/TIM.2020.2965635

    [3]

    LIU Y, JI X, PEI S, et al. Research on automatic location and recognition of insulators in substation based on YOLOv3[J]. High Voltage, 2020, 5(1): 62-68. DOI: 10.1049/hve.2019.0091

    [4]

    ZHOU M, WANG J, LI B. ARG-Mask RCNN: an infrared insulator fault-detection network based on improved mask RCNN[J]. Sensors, 2022, 22(13): 4720. DOI: 10.3390/s22134720

    [5]

    ZHAO Z, XU G, QI Y. Representation of binary feature pooling for detection of insulator strings in infrared images[J]. IEEE Transactions on Dielectrics and Electrical Insulation, 2016, 23(5): 2858-2866. DOI: 10.1109/TDEI.2016.7736846

    [6]

    Zaripova A D. Convolutional neural network to detect support and suspend insulators on infrared images[C]//2023 5th International Youth Conference on Radio Electronics, Electrical and Power Engineering (REEPE). IEEE, 2023, 5: 1-5.

    [7]

    ZHANG Z, HUANG S, LI Y, et al. Image detection of insulator defects based on morphological processing and deep learning[J]. Energies, 2022, 15(7): 2465. DOI: 10.3390/en15072465

    [8]

    XIA H, YANG B, LI Y, et al. An improved CenterNet model for insulator defect detection using aerial imagery[J]. Sensors, 2022, 22(8): 2850. DOI: 10.3390/s22082850

    [9]

    TANG Xiaoyu, HUANG Jinbo, FENG Jiewen, et al. Image segmentation and defect detection of insulators based on U-net and YOLOv4[J]. Journal of South China Normal University (Natural Science Edition), 2020, 52(6): 15-21.

    [10]

    Gupta G. Algorithm for image processing using improved median filter and comparison of mean, median and improved median filter[J]. International Journal of Soft Computing and Engineering (IJSCE), 2011, 1(5): 304-311.

    [11]

    LIU Y, TIAN J, HU R, et al. Improved feature point pair purification algorithm based on SIFT during endoscope image stitching[J]. Frontiers in Neurorobotics, 2022, 16: 840594. DOI: 10.3389/fnbot.2022.840594

    [12]

    YOU A, KIM J K, Ryu I H, et al. Application of generative adversarial networks (GAN) for ophthalmology image domains: a survey[J]. Eye and Vision, 2022, 9(1): 1-19. DOI: 10.1186/s40662-021-00274-y

    [13]

    HU Y, XU S, CHENG X, et al. AFSFusion: an adjacent feature shuffle combination network for infrared and visible image fusion[J]. Applied Sciences, 2023, 13(9): 5640. DOI: 10.3390/app13095640

    [14]

    Khachumov V M, Emelyanova G Y. Parabola as an activation function of artificial neural networks[J]. Scientific and Technical Information Processing, 2025, 51(5): 471-477.

    [15]

    Katzer J, Skoratko A, SeitlS. Properties of steel fiber reinforced mortar‐plastic columns with the cross‐section in a form of a Cesaro fractal[J]. Structural Concrete, 2023, 25(2): 904-915.

    [16]

    Esplen M J, WONG J, LS V M. Supporting resilience and the management of grief and loss among nurses: qualitative themes from a continuing education program[J]. Journal of Hospice and Palliative Care, 2022, 25(2): 55.

    [17]

    Hashim F, Dibs H, Jaber H S. Adopting Gram-Schmidt and Brovey methods for estimating land use and land cover using remote sensing and satellite images[J]. Nature Environment and Pollution Technology, 2022, 21(2): 867-881.

    [18]

    Ahmed S J F, Salih D M. IHS image fusion based on gray wolf optimizer (GWO)[J]. Anbar Journal for Engineering Sciences, 2022, 13(1): 65-75.

    [19]

    TIAN C, ZHENG M, ZUO W, et al. Multi-stage image denoising with the wavelet transform[J]. Pattern Recognition, 2023, 134: 109050.

    [20]

    Mishra D, Palkar B. Image fusion techniques: a review[J]. International Journal of Computer Applications, 2015, 130(9): 7-13.

    [21]

    SONG L, LIN Y, FENG W, et al. A novel automatic weighted image fusion algorithm[C]//2009 International Workshop on Intelligent Systems and Applications. IEEE, 2009: 1-4.

    [22]

    Polinati S, Bavirisetti D P, Rajesh K N, et al. Multimodal medical image fusion based on content-based and PCA-sigmoid[J]. Current Medical Imaging, 2022, 18(5): 546-562.

    [23]

    WANG G, CHEN Y, AN P, et al. UAV-YOLOv8: a small-object-detection model based on improved YOLOv8 for UAV aerial photography scenarios[J]. Sensors, 2023, 23(16): 7190.

    [24]

    LU L. Improved YOLOv8 detection algorithm in security inspection image[J]. arXiv preprint arXiv: 2308.06452, 2023.

    [25]

    Sary I P, Andromeda S, Armin E U. Performance comparison of YOLOv5 and YOLOv8 architectures in human detection using aerial images[J]. Ultima Computing: Jurnal Sistem Komputer, 2023, 15(1): 8-13.

    [26]

    Deshpande M, Agarwal A, Kamathe R. Development of an energy-efficient cctv camera system for real-time human detection using YOLOv8 model[J]. Eastern-European Journal of Enterprise Technologies, 2024, 6(9): 47-59.

    [27]

    LAN Y, CHEN M, LI C, et al. Research on small target detection method for industrial safety helmets based on improved YOLOv8[J]. Journal of Computing and Information Technology, 2023, 31(2): 123-133.

图(9)  /  表(2)
计量
  • 文章访问数:  40
  • HTML全文浏览量:  4
  • PDF下载量:  12
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-12-13
  • 修回日期:  2024-03-04
  • 网络出版日期:  2025-05-27
  • 刊出日期:  2025-05-19

目录

/

返回文章
返回