Multi-scale Guided Filter and Decision Fusion for Thermal Fault Diagnosis of Power Equipment
-
摘要: 本文提出一种基于多尺度引导滤波和决策融合(multi-scale guided filter and decision fusion, MGDF)的电力设备热故障诊断方法,联合多尺度引导滤波和决策融合技术,充分挖掘红外图像的空间结构信息和温度信息。该方法有3个主要步骤。首先,基于热故障区域与环境背景在红外图像上的温度差异特性,逐像素计算热故障区域与环境背景的马氏距离,获取初始的热故障诊断结果。然后,采用不同参数设置的引导滤波器对初始诊断结果进行滤波处理,并将生成的若干引导滤波特征图堆叠在一起。不同参数下的滤波特征图包含着互补的空间结构信息。最后,为充分挖掘不同尺度特征图的空间结构信息和温度差异信息,利用主成分分析法对引导滤波特征图进行决策融合,提升热故障的诊断精度,生成最终的热故障诊断结果图。实验测试结果表明,本文方法在热故障诊断精度上有明显优势,满足电力设备红外巡检的应用需求。Abstract: This paper introduces a thermal fault diagnosis method called multi-scale guided filtering and decision fusion. The proposed method combines multiscale guided filtering and decision-fusion techniques for fault diagnosis. It comprises three main steps. First, the Mahalanobis distance between the fault area and background is estimated, and initial thermal fault diagnosis results are generated. The initial diagnosis result is then filtered using guided filtering with various parameters, and several filtering feature maps are generated. Different filtering feature maps contain complementary spatial-structure information. Finally, a principal component analysis algorithm fuses these filtering feature maps to capture their spatial structure information and thermal information in filtering feature maps. Experimental results show that the proposed diagnosis method has a better detection performance than the current state-of-the-art detectors.
-
Keywords:
- power equipment /
- infrared image /
- thermal fault diagnosis /
- guided fusion /
- multi-scale /
- decision fusion
-
0. 引言
随着电子技术的迅速发展,CMOS相机由于其低成本、高成品率和低制作难度等优势,使成像设备应用范围不断扩大,这也使得图像数据呈现爆炸式的增长趋势。然而,在实际应用中,成像条件并不总是理想的。在医疗领域中,内窥镜容易受到光源干扰和人体组织复杂性影响,导致图像对比度低、光照不均匀、细节模糊[1];在安防监控领域,夜晚自然光照强度大幅降低,使监控相机所得到的图像细节难以辨认[2];在交通驾驶领域,车牌常常遭受光照、天气和拍摄位置等因素的干扰,导致车牌图像信息模糊不清[3-4]。因此,在微光图像亮度提升的同时保留图像细节信息就显得尤为重要。
目前,针对微光图像增强问题,主要分为传统方法和基于深度学习的神经网络方法。
传统方法有灰度变换方法、基于直方图均衡化方法、Retinex方法和频域处理方法。灰度变换方法[5]通过调整像素的灰度值分布和动态范围来增强图像。基于直方图均衡化方法[6]通过调整图像的灰度级分布来提高图像的对比度和亮度。Retinex方法[7]将图像分解为照射分量和反射分量,通过增强照射图以提高图像的亮度。频域处理方法[5]先将图像转换到频率域进行处理,再逆向转换回空间域。然而,这些方法或者只关注提高图像亮度,忽视了对原始细节信息的提取,或者对图像细节的恢复效果不尽人意。
基于深度学习的神经网络方法有RetinexNet、LLCNN、EGAN等。RetinexNet通过估计光照图以调整光照分量来增强微光图像[8]。LLCNN通过卷积神经网络学习微光图像的特征,并改进局部对比度来进行微光图像的增强[9]。EGAN通过生成对抗网络和自监督机制以实现对微光图像的增强[10]。尽管神经网络相对传统方法在亮度提升和细节恢复方面具有优势,但目前的处理方法仍然更加注重图像亮度和对比度的提高,并没有引入专门的细节保留模块。
针对上述问题,本文提出了一种细节保留的微光图像增强方法,该方法在经过滤波之后求取原图像的基本层与细节层,基本层用于提高原图像的亮度,细节层用于保留原图像纹理细节,最后将两个图层进行融合得到增强的图像。
1. 细节保留与亮度融合算法
该算法的框架流程如图 1所示。为了防止噪声对微光图像增强的影响,输入的低照度图像的R、G、B三个通道都采用自适应空间滤波。将经过滤波处理后的图像分为两步处理,第一步根据粗照度和使用双边滤波估计的光照分量计算原始图像的细节;第二步将图像从RGB颜色空间转换到HSV颜色空间,并使用第一步得到的光照分量代替V通道,同时使用改进的对数变换作为幂值对光照分量使用伽马校正和伽马先验校正,然后通过Alpha融合算法将二者与光照分量融合为一个新的亮度通道。将细节融合进新的亮度通道后再将图像从HSV颜色空间转换到RGB颜色空间。
1.1 自适应滤波
对于RGB图像中的每个原始通道,使用分步滤波方法进行处理。先对相关噪声进行过滤,再对不相关噪声进行滤除。由于相邻信号之间存在相关性,图像传感器的读出电路会对相邻信号进行干扰,从而引入条纹噪声和色斑噪声即相关噪声。不相关噪声通常表现为随机噪声和均匀噪点,其来源主要是暗电流和量化噪声[11]。两种噪声的抑制采用公式(1):
$$\begin{aligned} & x^{\prime}(i, j)=\frac{\sigma \times x(i, j)+\bar{x}^2}{\sigma+\bar{x}+\varepsilon} \\ & p(i, j)=n(i, j) \times x^{\prime}(i, j)+(1-n(i, j)) \times x(i, j) \end{aligned} $$ (1) 式中:x′(i, j)为相关噪声抑制结果;p(i, j)为不相关噪声抑制结果即最终滤波结果;x(i, j)、x和σ分别表示为窗口W的像素值、均值和方差;ε为一个极小值;n(i, j)为二值噪声矩阵,用于指明窗口W中的不相关噪声的位置,通过比较窗口W中每个像素与窗口的误差中值获得。
滤波前后结果如图 2所示,图(a)为无滤波增强图像,图(b)为滤波后的增强图像。无滤波时,红圈中的暗区增强后会出现密集的黑点,经过滤波后黑点基本消失,且图像变得光滑。
1.2 细节提取
本文的细节提取算法是受到Retinex算法启发而来。Retinex算法是一种常用的图像增强算法,在算法中通常需要估计图像的光照分量,而光照分量包含了图像的边缘和细节信息。为了从光照分量中提取出图像的细节信息,需要在最大通道上估计出粗光照和光照分量。最大通道即R、G、B通道的最大值,由公式(2)确定:
$$ L(i, j)=\max\limits_{c \in(R, G, B)} I^c(i, j)$$ (2) 式中:L(i, j)为原始图像在点(i, j)处的3个通道最大值,IC(i, j)为原始图像。假设局部图像块中的光照是恒定的,粗光照则是最大通道的扩展即一个图像块中的最大光照强度应该具有近似相同的照度值。为了克服在光照边缘处由于光照不恒定而带来的块效应,使用公式(3)在估计粗光照的同时保持边缘[12]:
$$ L^{\mathrm{e}}(i, j)=\frac{\sum\limits_{(i, j) \in W} \eta(i, j) \times g(i, j) \times L^i(i, j)}{\sum\limits_{(i, j) \in W} \eta(i, j) \times g(i, j)}$$ (3) 式中:Lθ(i, j)为保持边缘的粗光照;Li(i, j)为粗光照;η(i, j)为阶跃函数;g(i, j)为类值域核函数。相比最大通道,粗光照更加接近真实照明结果。Li(i, j)、η(i, j)和g(i, j)由公式(4)分别计算:
$$ \begin{aligned} & L^i(i, j)=\max _{c \in(R, G, B)}\left(\max _{(i, j) \in W} I^c(i, j)\right) \\ & \eta(i, j)= \begin{cases}1 & L^i(i, j)-L(i, j) \geq 0 \\ 0 & L^i(i, j)-L(i, j)<0\end{cases} \\ & g(i, j)=\mathrm{e}^{-\frac{\left|L^i(i, j)-2 \times L(i, j)\right|}{2 \sigma^2}} \end{aligned}$$ (4) 光照分量的估计采用双边滤波器来实现,它能在平滑纹理的同时保持边缘信息。双边滤波器估计的光照分量由公式(5)确定:
$$ \begin{aligned} & L^{\mathrm{b}}(i, j)=\frac{1}{W} \sum W_{\mathrm{s}} \times W_{\mathrm{r}} \times I(i, j) \\ & W_{\mathrm{s}}=\exp \left(-\frac{(i-k)^2+(j-l)^2}{2 \sigma_{\mathrm{s}}^2}\right) \\ & W_{\mathrm{r}}=\exp \left(-\frac{(I(i, j)-I(k, l))^2}{2 \sigma_{\mathrm{r}}^2}\right) \\ & W=\sum W_{\mathrm{s}} \times W_{\mathrm{r}} \end{aligned}$$ (5) 式中:Lb(i, j)为估计的光照分量;W为权重;Ws为空间域核函数;Wr为值域核函数;(i, j)为窗口Ω中的某像素坐标;I(i, j)为对应的像素;(k, l)为窗口Ω中值的坐标,I(k, l)为中值。
图 3是提取出的粗光照与光照分量,它们与原图的灰度图相比,整体亮度稍亮。
由估计的光照分量和粗光照得到的粗细节层如公式(6):
$$D_{\text {int }}(i, j)=\frac{L^{\mathrm{b}}(i, j)}{L^{\mathrm{e}}(i, j)+\varepsilon}$$ (6) 式中:Dint(i, j)为提取的细节;ε是一个极小值。粗细节层包含了一些冗余细节和噪声还不能用于后续细节融合,本文在此基础上加入了调制因子d以减少上述缺点。
$$ d=\frac{D_{\mathrm{std}}}{D_{\mathrm{men}}}$$ (7) 式中:Dstd和Dmen是粗细节层的方差和均值。
如图 4所示,加入调制因子d前后的细节层为图(a)和图(c),分别与增强的亮度通道融合后的图像为图(b)和图(d)。从图(b)和图(d)可以看出加入调制因子d后图中物体边缘更加平滑,黑边消失。
在背景虚化的微光图像上使用本文细节层算法进行图像增强可能会导致增强后的图像出现马赛克现象。为了解决这个问题,可以选择使用高斯滤波算法对细节层进行模糊处理,从而减弱这种现象,或者去马赛克算法消除。在实际应用中,需要根据具体情况选择合适的核大小来进行高斯滤波处理,并且也可以针对性地调整去马赛克算法的参数以达到更好的效果。
1.3 亮度增强
本文将对经过滤波处理的RGB图像进行HSV颜色空间转换,并使用双边滤波估算出的光照分量来替代原始V通道以实现图像亮度增强。先使用自适应伽马校正和伽马先验校正对光照分量进行预处理,再将二者校正后的图像与光照分量通过Alpha算法进行融合。
原本的伽马校正先验公式的作用是图像去噪和去雾,根据文献[13],本文使用伽马先验校正增强微光图像的亮通道。自适应伽马校正和伽马先验校正公式定义如下:
$$ \begin{aligned} & L^{\mathrm{gc}}(i, j)=L^{\mathrm{b}}(i, j)^{s(i, j)} \\ & L^{\mathrm{gcp}}(i, j)=1-\left(1-L^{\mathrm{b}}(i, j)\right)^{\frac{1}{s(i, j)}} \end{aligned}$$ (8) 式中:Lgc(i, j)为伽马校正结果;Lgcp(i, j)为伽马先验校正结果;Lb(i, j)为归一化的值;s(i, j)为改进后的对数变换,这里作为校正公式的幂。经过对数变换后,图像的亮度值会发生反转即暗处的像素值将会变得更大,而亮处的像素值则会变得更小,再将对数变换的结果作为伽马校正和伽马先验校正的幂,可以使淹没在黑暗中的细节暴露出来。本文对数变换公式如下:
$$s(i, j)= \begin{cases}\frac{\log \left(\operatorname{men}+L^{\mathrm{b}}(i, j)\right)}{\log \left(\operatorname{std}^c\right)}+\mathrm{std} & \operatorname{med}>\mathrm{std} \\ \frac{\log \left(\operatorname{men}+L^{\mathrm{b}}(i, j)\right)}{\log \left(\operatorname{std}^c\right)}+\text { med } & \operatorname{med} \leq \operatorname{std}\end{cases}$$ (9) 式中:s(i, j)为对数变换结果;men、med和std分别为光照分量的均值、中值和方差;c为幂值,用以控制对数变换后图像数值的大小即反转后图像的亮度。不同图像的c值可按下式取值:
$$c= \begin{cases}\frac{\text { med }}{\text { immse } \times \text { men }} & \text { med }>\text { immse } \\ \frac{\text { men }}{\text { immse } \times \text { med }} & \;\;0.025 <\text { med } \leq \text { immse } \\ \frac{\text { std }+ \text { immse }}{\text { men }+ \text { med }} & \text { med } \leq 0.025, \text { std }>\text { med } \\ \frac{\text { med }+ \text { immse }}{\text { std }+ \text { med }} & \text { med } \leq 0.025, \text { std }<\text { med }\end{cases}$$ (10) 式中:immse为光照分量的均方误差。
Alpha融合算法是在原本的图像通道外重新定义了第四通道即Alpha通道,该通道反映了图像的透明度信息。在将前景图像叠加到背景图像的过程中,改变Alpha通道的值可使新图像既包含前景图像又包含背景图像[14]。本文通过修改原先两图像的Alpha融合算法得到了适用于三图像的Alpha融合算法,公式如下:
$$V=\frac{m_{\mathrm{b}} \times L^{\mathrm{b}}+m_{\mathrm{gc}} \times L^{\mathrm{gc}}+m_{\mathrm{g}} \times L^{\mathrm{gcp}}}{m_{\mathrm{b}}+m_{\mathrm{gc}}+m_{\mathrm{gcp}}}$$ (11) 式中:V为融合后的亮度通道;mb、mgc、mgcp分别为光照分量、伽马校正和伽马先验校正归一化后的均值,以此来代表各自图像的透明度。
亮度通道增强过程如图 5所示,原图(a)经过图(b)的对数曲线处理后,其图像亮度反转为图(c)。以图(c)的值作为幂值,在经过伽马校正和伽马先验校正后得到图(d)和(e)。相比于原图,这两幅图像的亮度得到了明显提高,其中图(d)的亮度提高的更多。图(a)、(d)和(e)被融合成图(f),其亮度在(d)和(e)之间。该融合方式可以防止单独使用图(d)时带来的过曝光情况,同时也能够防止单独使用图(e)时亮度增强不足的情况。
1.4 细节融合
在上一节中,使用Alpha融合算法来提高图像的亮度,但图像细节并不能很好地保留,反而会导致增强后的图像变得模糊、纹理不清晰。因此,为了在提高图像亮度的同时保留其细节,本文将细节层与增强后的亮度通道进行融合。如图 6所示,经过融合后的图像在提高亮度的同时细节也得到了很好的保留。融合公式如下:
$$ V^{\mathrm{d}}=V \times D$$ (12) 式中:Vd为融合细节层的亮度通道;V为增强后的亮度通道;D为加入调制因子的细节层。
2. 实验结果与分析
2.1 细节保留实验
为了评估本文算法在保留图像细节方面的能力,对LOL数据集[15]中的图像进行了处理。首先,获取了经过亮度增强但没有融合细节的图像,以及融合了细节的亮度增强图像。然后,分别计算了这两种图像的平均梯度(AG)[16]以及完全增强图像的信息熵(Entropy)[15]。AG和Entropy指标可以反映图像的细节程度,数值越大表示图像中细节越丰富。因此,通过计算AG和Entropy指标,可以量化算法对图像细节的保留能力。
图 7展示了LOL数据集中部分图像的AG和Entropy指标计算结果,而表 1则展示了这些图像中AG和Entropy的提升百分比。对于其他图像,其计算结果与图中所示相一致。从图 7可以明显观察到以下情况:融合了细节的亮度增强图像的AG值普遍高于没有融合细节的亮度增强图像,同时融合了细节的完全增强图像的Entropy值普遍高于原始图像。通过表 1可以看出,融合了细节的图像的AG和Entropy值均有显著的提升。这两个指标的变化表明,融合了细节的增强图像具备更为丰富的信息内容和更加充分的细节展现。
表 1 不同图像的AG和Entropy提升Table 1. AG and Entropy boosts for different images% Image 1 Image 2 Image 3 Image 4 Image 5 Image 6 Image 7 Image 8 Image 9 Image 10 Image 11 Image 12 Image 13 Image 14 Improvement of AG 21.81 26.30 23.02 27.10 32.65 29.59 19.91 46.67 31.70 44.09 45.13 21.71 21.00 17.75 Improvement of entropy 31.21 29.61 43.62 35.46 37.44 25.95 24.11 37.02 27.29 36.01 34.96 36.91 36.9 35.93 2.2 微光图像增强实验
为了评估本文算法对整体微光图像处理的效果,对不同类型的图像使用对比度受限的自适应直方图均衡化算法(contrast limited adaptive histogram equalization, CLAHE)[17]、带色彩恢复的多尺度视网膜增强算法(multi-scale Retinex with color restoration MSRCR)[18]、基于照度估算的方法(low-light image enhancement, LIME)[19]、用于增强低光照视频的快速高效算法(Dong)[20]、微光图像增强的仿生多重曝光融合算法(bio-inspired multi-exposure fusion, BIMEF)[21]进行处理,并使用主流的图像评价指标进行评价。
2.2.1 无参考图实验
本文使用ExDark数据集[22-23]进行无参考图实验。该数据集包含了7千多张自然环境中的微光图像。实验中使用上述算法对该数据集中的图像进行处理,图 8所示的是不同类型的微光图像的部分处理结果。
经过CLAHE处理后的图像整体亮度增强不足,一些细节还隐藏在黑暗中。经过MSRCR处理的图像,图像亮度不恒定,会出现某些图像亮度足够,某些图像亮度不足的情况。经过LIME处理后的图像亮度过曝,导致暗区过增强呈现黑块。经过Dong处理的图像,边缘黑边严重。经过BIMEF处理的图像亮度提升明显。本文算法处理后的图像,亮度适中,无黑边现象。
为了进一步评价本文算法对无参考图的处理效果,使用BRISQUE[24]、Entropy和NRSS[15, 25]三个指标进行评价。BRISQUE反应了图像的失真程度或图像的视觉质量;Entropy反应了图像的信息丰富度即图像的边缘、纹理和细节特征;NRSS(no-reference structural sharpness)反应了图像的模糊程度。
从表 2可以看出,除Boat图像的BRISQUE值大于MSRCR算法,其他均小于其他算法,表明经过本文处理的图像失真小。因LIME算法处理后的图像过曝,暴露出了更多的细节,故Entropy值小于LIME算法,但与BIMEF和Dong相近甚至部分图像的Entropy值超过,且大于CLAHE和MSRCR算法,表明本文算法可以较好的保留图像的边缘细节。NRSS值除Bus图像小于LIME算法,其他均高于其他算法,表明经过本文处理的图像具有很好的清晰度。
表 2 不同微光图像的定量分析Table 2. Quantitative analysis of different low-light imagesCLAHE MSRCR LIME Dong BIMEF Ours People BRISQUE 26.9512 26.9512 28.2351 40.9813 24.0077 17.234 Entropy 6.6333 6.6333 7.633 7.2279 6.8141 7.2535 NRSS 1.0126 1.0126 1.0023 0.9853 1.0053 1.0167 Table BRISQUE 26.5168 24.3462 34.0021 43.3599 29.8545 15.2473 Entropy 7.5454 7.3465 7.8242 7.753 7.412 7.7911 NRSS 0.9514 0.9539 0.9736 0.9714 0.9831 0.9963 Chair BRISQUE 26.8267 21.4651 29.4617 28.5589 39.0617 16.9667 Entropy 6.4688 5.8495 7.1195 6.4419 6.9101 6.8246 NRSS 1.0086 0.9745 0.9848 0.992 0.9935 1.0208 Cat BRISQUE 37.1413 40.3425 36.7332 36.7464 37.1779 31.0763 Entropy 4.8146 4.5755 4.8567 4.8433 5.4237 5.0891 NRSS 0.9982 0.9703 0.9831 1.0012 1.0057 1.0069 Bus BRISQUE 22.9972 16.9942 21.7106 19.599 27.64 5.8177 Entropy 7.1323 6.1629 7.7195 7.2287 7.5483 7.5326 NRSS 0.9568 0.9758 1.0009 0.9491 0.9533 0.9928 Boat BRISQUE 28.4463 24.3631 34.4487 24.0482 43.4573 27.6673 Entropy 7.3459 6.2219 7.3408 7.022 7.467 7.452 NRSS 0.971 0.9803 0.9915 0.9867 1.0069 1.0231 2.2.2 有参考图实验
本文使用BrighteningTrain数据集[26]进行有参考图实验。该数据集包含了1000张真实场景拍摄的微光图像和对应的正常亮度图像。实验中使用上述算法对该数据集中的图像进行处理,并选取不同类型的微光图像的部分处理结果进行展示,结果如图 9所示。
经CLAHE处理后的图像亮度太暗,存在少量偏色问题;经MSRCR处理的图像亮度一致性差,不同类型图像之间亮度存在过亮和较暗情况,同一张图像也会存在过曝和过暗情况;经LIME处理后的图像亮度过度曝光导致整体泛白,且色彩饱和度过高,纹理过于平滑;经Dong处理后的图像虽然提高了亮度,但图像边缘黑边明显,人眼视觉感受差;经BIMEF处理的图像亮度有所提高,但还低于正常图像;本文算法处理的图像亮度最接近原图,一致性好,且保留了部分细节。
鉴于BRISQUE、Entropy以及NRSS评价指标无法利用参考图像进行图像质量评估,为了更全面地评价本文所提算法的性能表现,采用能够利用参考图像的评价指标,即结构相似性(structural similarity, SSIM)和峰值信噪比(peak signal-to-noise ratio, PSNR)[27],作为衡量标准,对上述不同算法处理后的图像质量进行评估。PSNR用于度量微光图像经过处理后的噪声水平;而SSIM用于衡量图像的相似程度,该指标可反应不同算法处理后的图像品质。
从表 3可看出,本文算法的SSIM指标均高于其他算法,表明经过本文算法处理的图像更加接近原始正常亮度图像;PSNR指标高于CLAHE、MSRCR、LIME算法,但对于Scenery图像低于Dong和BIMEF算法,对于Person图像低于BIMEF算法,表明本文算法可以有效抑制微光图像增强后的噪声。
表 3 不同微光图像的SSIM和PSNR测试结果Table 3. SSIM and PSNR test results for different low-light imagesCLAHE MSRCR LIME Dong BIMEF Ours Building SSIM 0.683 0.69 0.913 0.783 0.828 0.918 PSNR 8.059 17.284 19.619 17.280 16.946 25.093 Scenery SSIM 0.649 0.515 0.712 0.740 0.791 0.787 PSNR 13.037 13.306 13.682 19.753 22.818 17.084 Animal SSIM 0.475 0.528 0.926 0.813 0.869 0.939 PSNR 8.237 15.084 18.800 15.381 20.507 22.449 Plant SSIM 0.869 0.567 0.756 0.936 0.904 0.965 PSNR 16.359 11.887 13.482 24.01200 20.824 26.833 Person SSIM 0.562 0.569 0.893 0.854 0.769 0.922 PSNR 10.451 12.770 16.320 17.801 21.142 19.917 2.3 算法运行时间
为了测试不同算法的处理速度,本文从无参考图和有参考图的数据集里选择不同分辨率的微光图像进行实验,实验结果如表 4所示。CLAHE方法因图像分块均衡化、每小块内部操作简单故运行时间最短,且运行时间对图像大小的增加表现出极高的鲁棒性,即便图像尺寸显著扩大,其运行时间的增幅亦相当有限;与CLAHE方类似,BIMEF方法在局部区域进行曝光融合操作且有选择性地对微光区域进行处理,故运行时间快;MSRCR方法由于其多尺度高斯滤波操作而具有较高计算复杂度;Dong算法将微光图像增强问题转化成了暗通道去雾问题,又因低光照图像的反转图,可以看成是雾很严重的情况,在使用暗通道去雾算法求取反转图时需要更多的计算时间;LIME方法需要迭代优化来估计图像的光照图从而增加了算法的计算复杂度和运行时间,导致运行时间最长;本文算法因含有滤波等操作导致运行时间低于CLAHE和BIMEF方法,但又不含迭代计算从而使运行时间快于其他方法。
表 4 不同算法的运行时间对比Table 4. Comparison of running times of different algorithmss Resolution 384×384 640×480 800×600 1280×720 1920×1080 CLAHE 0.023 0.047 0.058 0.069 0.135 MSRCR 0.225 0.297 0.379 0.683 1.344 LIME 1.347 3.155 5.090 7.267 29.729 Dong 1.108 2.346 3.567 6.892 15.610 BIMEF 0.076 0.166 0.215 0.434 0.840 Ours 0.100 0.205 0.329 0.666 1.873 3. 结论
为避免微光图像增强过程中出现细节丢失导致图像信息恢复不足,本文提出了一种细节保留与亮度融合的微光图像增强算法。在微光图像亮度增强的同时融合细节层以保留原始图像的纹理信息。实验结果表明,融合了细节层的图像在AG方面可以提升49%,信息熵可以提升43%。无参考图情况下,增强后的图像Entropy值可达7.7911,BRISQUE值可达5.8177,表明本文算法很好地保留了原始图像的细节。有参考图对比时,增强后的图像SSIM值达到0.965。表明增强后的图像与原图之间具有最高的相似度,同时图像失真也最小。
-
表 1 不同诊断方法的AUC指标
Table 1 AUC values of different diagnosis methods
Test
imagesRX LDP LRR MGDF 1 0.9707 0.8312 0.8974 0.9852 2 0.9901 0. 9132 0. 9326 0.9993 3 0.9893 0. 9253 0. 9486 0.9989 表 2 不同诊断方法的运行时间
Table 2 Running time of different diagnosis methods
Test images RX LDP LRR MGDF 1 0.59 0.75 0.47 2.31 2 0.53 0.61 0.34 2.27 3 0.84 0.98 0.56 2.15 表 3 单一尺度滤波参数的AUC指标
Table 3 Diagnosis methods with various parameters
Test images GF1 GF2 GF3 GF4 MGDF 1 0.9403 0.9433 0.9681 0.9562 0.9852 2 0.9787 0.9464 0.9805 0.9908 0.9993 3 0.9693 0.9712 0.9485 0.9824 0.9989 -
[1] 黄志鸿, 吴晟, 肖剑, 等. 基于引导滤波的电力设备热故障诊断方法研究[J]. 红外技术, 2021, 43(9): 910-915. http://hwjs.nvir.cn/article/id/cb2a71f1-cd7c-4e76-977b-b6f7472b905d HUANG Zhihong, WU Sheng, XIAO Jian, et al. Thermal fault diagnosis of power equipments based on guided filter[J]. Infrared Technology, 2021, 43(9): 910-915. http://hwjs.nvir.cn/article/id/cb2a71f1-cd7c-4e76-977b-b6f7472b905d
[2] 刘嵘, 刘辉, 贾然, 等. 一种智能型电网设备红外诊断系统的设计[J]. 红外技术, 2020, 42(12): 198-1202. http://hwjs.nvir.cn/article/id/a00b6f68-052d-40c0-a00f-1f0ff120ce69 LIU Rong, LIU Hui, JIA Ran, et al. Design of intelligent infrared diagnosis system for power grid equipment[J]. Infrared Technology, 2020, 42(12): 1198-1202. http://hwjs.nvir.cn/article/id/a00b6f68-052d-40c0-a00f-1f0ff120ce69
[3] 康龙. 基于红外图像处理的变电站设备故障诊断[D]. 北京: 华北电力大学, 2016. KANG Long. Fault Diagnosis of Substation Equipment Based on Infrared Image Processing[D]. Beijing: North China Electric Power University, 2016.
[4] 胡洛娜, 彭云竹, 石林鑫. 核猫群红外图像异常检测方法在电力智能巡检中的应用[J]. 红外技术, 2018, 40(9): 323-328. http://hwjs.nvir.cn/article/id/hwjs201809013 HU Luona, PENG Yunzhu, SHI Linxin. Anomaly detection method of infrared images based on kernel cat swarm optimization clustering with application in intelligent electrical power inspection[J]. Infrared Technology, 2018, 40(9): 323-328. http://hwjs.nvir.cn/article/id/hwjs201809013
[5] 魏钢, 冯中正, 唐跃林, 等. 输变电设备红外故障诊断技术与试验研究[J]. 电气技术, 2013, 14(6): 75-78. https://www.cnki.com.cn/Article/CJFDTOTAL-DQJS201306030.htm WEI Gang, FENG Zhongzheng, TANG Yuelin, et al. The infrared diagnostic technology of power transmission devices and experimental study[J]. Electrical Technology, 2013, 14(6): 75-78. https://www.cnki.com.cn/Article/CJFDTOTAL-DQJS201306030.htm
[6] 李鑫, 崔昊杨, 霍思佳, 等. 基于粒子群优化法的Niblack电力设备红外图像分割[J]. 红外技术, 2018, 40(8): 780-785. http://hwjs.nvir.cn/article/id/hwjs201808010 LI Xin, CUI Wuyang, HUO Sijia. Niblack's method for infrared image segmentation of electrical equipment improved by particle swarm optimization[J]. Infrared Technology, 2018, 40(8): 780-785. http://hwjs.nvir.cn/article/id/hwjs201808010
[7] 林颖, 郭志红, 陈玉峰. 基于卷积递归网络的电流互感器红外故障图像诊断[J]. 电力系统保护与控制, 2017, 45(16): 87-94. https://www.cnki.com.cn/Article/CJFDTOTAL-JDQW201516013.htm LIN Ying, GUO Zhihong, CHEN Yufeng. Convolutional-recursive network based current transformer infrared fault image diagnosis[J]. Power System Protection and Control, 2015, 45(16): 87-94. https://www.cnki.com.cn/Article/CJFDTOTAL-JDQW201516013.htm
[8] 黄志鸿, 洪峰, 黄伟. 形状自适应低秩表示的电力设备热故障诊断方法研究[J]. 红外技术, 2022, 44(9): 870-874. http://hwjs.nvir.cn/article/id/8f0f8a69-4b47-46b4-bcdf-ea623287093f HUANG Zhihong, HONG Feng, HUANG Wei. Shape-adaptation low-rank representation for thermal fault diagnosis of power equipments[J]. Infrared Technology, 2022, 44(9): 870-874. http://hwjs.nvir.cn/article/id/8f0f8a69-4b47-46b4-bcdf-ea623287093f
[9] 常亮, 邓小明, 周明全, 等. 图像理解中的卷积神经网[J]. 自动化学报, 2016, 42(9): 1300-1312. https://www.cnki.com.cn/Article/CJFDTOTAL-MOTO201609002.htm CHANG Liang, DENG Xiaoming, ZHOU Mingquan, et al. Convolutional neural networks in image understanding[J]. Acta Automatica Sinica, 2016, 42(9): 1300-1312. https://www.cnki.com.cn/Article/CJFDTOTAL-MOTO201609002.htm
[10] 魏东, 龚庆武, 来文青, 等. 基于卷积神经网络的输电线路区内外故障判断及故障选相方法研究[J]. 中国电机工程学报, 2016, 36(5): 21-28. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGDC2016S1003.htm WEI Dong, LONG Qinwu, LAI Wenqing, et al. Research on internal and external fault diagnosis and fault-selection of transmission line based on convolutional neural network[J]. Proceedings of the CSEE, 2016, 36(5): 21-28. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGDC2016S1003.htm
[11] 周可慧, 廖志伟, 肖异瑶, 等. 基于改进CNN的电力设备红外图像分类模型构建研究[J]. 红外技术, 2019, 41(11): 1033-1038. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS201911007.htm ZHOU Kehui, LIAO Zhiwei, XIAO Yiyao, et al. Construction of infrared image classification model for power equipments based on improved CNN[J]. Infrared Technology, 2019, 41(11): 1033-1038. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS201911007.htm
[12] HUANG Z, ZHOU J, LI S, et al. Superpixels segmentation and low-rank matrix recovery for thermal fault diagnosis of power equipment[C]//IEEE 5th Conference on Energy Internet and Energy System Integration, 2021: DOI: 10.1109/EI252483.2021.9713012
[13] KANG X, ZHANG X, LI S, et al. Hyperspectral anomaly detection with attribute and edge-preserving filters[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(10): 5600-5611. https://ieeexplore.ieee.org/document/7994698
[14] HE K, SUN J, TANG X. Guided image filtering[C]//Proc. of Processing IEEE Conference Computer Vision Pattern Recognition, 2010: 1-14.
[15] Durand F, Dorsey J. Fast bilateral filtering for the display of high-dynamic-range images[J]. ACM Transactions on Graphics, 2002, 21(3): 257-266. https://www.bibsonomy.org/bibtex/2714918ed2c28651e4e8039e735c9393f/dblp?lang=en
[16] Reed I S, YU X. Adaptive multiple-band CFAR detection of an optical pattern with unknown spectral distribution[J]. IEEE Transactions on Acoustic Speech Signal Processing, 1990, 38(10): 1760-1770. https://ieeexplore.ieee.org/document/60107
[17] KANG X, ZHANG X, LI S, et al. Hyperspectral anomaly detection with attribute and edge-preserving filters[J]. IEEE Trans. Geosci. Remote Sens., 2017, 55(10): 5600-5611. https://ieeexplore.ieee.org/document/7994698
[18] XU Y, WU Z, LI J, et al. Anomaly detection in hyperspectral images based on low-rank and sparse representation[J]. IEEE Trans. Geosci. Remote Sens. , 2016, 54(4): 1990-2000. https://ieeexplore.ieee.org/document/7322257
[19] 蒋昀宸, 樊绍胜, 陈骏星溆. 带电作业智能新技术及其应用现状[J]. 湖南电力, 2018, 38(5): 1-4. https://www.cnki.com.cn/Article/CJFDTOTAL-HNDL201805001.htm JIANG Yunchen, FAN Zhaosheng, CHEN Junxingxu. Smart new-technologies and applications for live work[J]. Hunan Electric Power, 2018, 38(5): 1-4. https://www.cnki.com.cn/Article/CJFDTOTAL-HNDL201805001.htm