Image Fusion Based on NSCT and Minimum-Local Mean Gradient
-
摘要: 针对传统红外图像与可见光图像融合存在对比度低、细节丢失、目标模糊等问题,本文基于非下采样轮廓波变换(Non-subsampled Contourlet Transform,NSCT)的思想,通过改进权重函数和融合规则,建立新的融合算法实现红外图像和可见光图像的有效融合。首先,通过NSCT变换对红外和可见光图像进行多尺度分解得到对应的低频系数和高频系数。然后,采用改进的最小化规则和局部平均梯度规则分别对低频系数和高频系数进行融合处理,得到对应的最优融合系数,并将所得融合系数进行NSCT逆变换得到最终融合图像。最后,使用公共数据集与其他5种算法进行对比实验,并在7个具有实际意义的性能评价指标约束下,验证所设计算法的有效性和鲁棒性。Abstract: To address the problems of low contrast, detail loss, and target blur in the fusion of traditional infrared and visible images, this study uses the idea of non-subsampled contourlet transform (NSCT) to improve the weight function and fusion rules and thus develops a new fusion algorithm to realize the effective fusion of infrared and visible images. First, NSCT is used to decompose infrared and visible images at multiple scales to obtain the corresponding low-and high-frequency coefficients. Then, the improved minimization and local mean gradient rules are used to fuse the low- and high-frequency coefficients, respectively, and thus to obtain the corresponding optimal fusion coefficient. The obtained fusion coefficient is then converted via an NSCT inverse transformation to obtain the final fused image. Finally, a public dataset is used to compare the proposed algorithm with the other five algorithms. The effectiveness and robustness of the proposed algorithm are verified under the constraints of seven performance evaluation indices having practical significance.
-
0. 引言
红外成像具有非接触直接测量输变电设备状态的特征,无需停电,在电力领域具有广泛的应用[1-3]。输变电设备在野外严峻环境中长期运行,由于材料老化、污秽闪络、机械受损等因素,常伴随有局部放电、温度增高等现象。绝缘子作为输电线路重要部件,起到电气隔离和机械支撑的作用,当红外图像显示的温度较高,表明其有异常缺陷,这是因为场强不均匀发生局部放电,严重时可能导致线路故障,甚至造成停电故障。文献[4-5]开展了变压器高压套管的红外诊断研究,通过热像特征谱图分析了故障原因。红外图像可应用于交流滤波器的故障分析中,提取其跳闸的典型故障特征[6-8]。
输变电设备红外图谱特征提取主要为图像处理方法,诸如纹理、色彩、边框等图像特征[9-10]。随着无人机航拍技术的发展,输变电设备红外图谱呈现爆发式增长,深度学习提供了一种良好的手段[11-13],采用卷积神经网络(Convolutional Neural Networks,CNN)的方法,对海量图片进行训练学习,提取特征进行测试和验证。CNN通过卷积层计算,输入较深层的特征图,对于小目标绝缘子、套管,权重值相对较少,无法实现小目标的有效提取[14-15]。针对这一缺点,本文对Faster R-CNN方法进行改进,提高绝缘子红外图谱诊断的精度。
1. 改进的Faster R-CNN方法
1.1 Faster R-CNN原理
区别于普通的CNN,Faster R-CNN增加了一个区域提取网络(Region Proposal Network,RPN),即图 1中的候选区域,摒弃传统的滑动窗口,可在GPU直接运行计算,极大地加快了计算速度。RPN判断每个像素点对应的多个不同尺度和宽高比的锚框是否为前景目标的二分类,形成候选区域。
Faster R-CNN一般采用随机梯度下降法(Stochastic Gradient Descent,SGD)训练神经网络,见式(1):
$$ h(x) = \sum\limits_{i = 0}^n {{w_i}} {x_i} = {\mathit{\boldsymbol{W}}^{\rm{T}}}\mathit{\boldsymbol{X}} $$ (1) 式中:X为输入;W为权重;wi、xi分别表示第i个权重和输入;h(x)为对应的输出。
损失函数S(W)基于平方误差实现,见式(2):
$$ S(\mathit{\boldsymbol{W}}) = \frac{1}{2}\sum\limits_{i = 0}^m {{{({h_W}({x_i}) - {y_i})}^2}} $$ (2) 式中:yi为真实输出。
W的更新函数见式(3):
$$ {W_j} = {W_j} - \alpha \frac{\partial }{{\partial {W_j}}}S(\mathit{\boldsymbol{W}}) $$ (3) 式中:α为学习率,可设置步长。W通过梯度下降法进行求解,首先正向计算样本输出值,接着根据反向传递的误差迭代计算,常用在CNN训练中。
RPN的选择本质是通过平移或者尺度变化的方法将合适的区域提取网络R变成$\hat C$,从而接近实际的候选框C:
$$ f({R_x}, {R_y}, {R_w}, {R_h}) = \left( {{{\hat C}_x}, {{\hat C}_y}, {{\hat C}_w}, {{\hat C}_h}} \right) \approx \left( {{C_x}, {C_y}, {C_w}, {C_h}} \right) $$ (4) 式中:(x, y)、(w, h)分别为矩形区域的中心坐标和宽、高。
令${t_*}$为矩形区域的平移和缩放量,则有:
$$ \left\{ {\begin{array}{*{20}{l}} {{t_x} = ({C_x} - {R_x})/{R_{\rm{w}}}}\\ {{t_y} = ({C_y} - {R_y})/{R_{\rm{h}}}}\\ {{t_{\rm{w}}} = \lg ({C_{\rm{w}}}/{R_{\rm{w}}})}\\ {{t_{\rm{h}}} = \lg ({C_{\rm{h}}}/{R_{\rm{h}}})} \end{array}} \right. $$ (5) 式中:tx、ty为矩形区域的中心坐标平移量;tw、th分别为矩形区域的宽、高的缩放量。
预测值计算过程为:
$$ {d_*}(R) = w_*^{\rm{T}}\phi (R) $$ (6) 式中:ϕ是最后一次卷积计算。
损失函数的目标值计算见式(7),通过调整平移和缩放的尺度,确定最终的候选区域[16]:
$$ {L_{{\rm{oss}}}} = \sum\limits_{i = 1}^N {{{(t_*^i - w_*^{\rm{T}}\phi ({C^i}))}^2}} $$ (7) 1.2 压缩激励结构
为了增强Faster R-CNN的小目标特征提取能力,引入压缩激励结构,即压缩和激励两大操作,设图像的特征参数设置为(H, W, K),分别表示为长、宽和通道数。
压缩操作Fsq(·)基于各个通道实现特征图空间信息的压缩,见式(8):
$$ {h_c} = {F_{{\rm{sq}}}}\left( {{k_c}} \right) = \frac{1}{{H \times W}}\sum\limits_{i = 1}^H {\sum\limits_{j = 1}^W {{k_c}(i, j)} } $$ (8) 式中:kc表示第c个通道;hc表示经过压缩后输出向量h的第c个元素。
激励操作分为激励Fex(·)和校准Fscale(·)两个过程,分别见式(9)和式(10):
$$ s = {F_{{\rm{ex}}}}(h, w) = \sigma (g(z, w)) = \sigma ({w_2}\delta ({w_1}z)) $$ (9) 式中:σ是sigmoid激活函数;w1为$\frac{c}{r} \times \vec C$的实数矩阵,表示通道的缩减,r为缩减因子;δ是ReLU激活函数,w2为$\vec C \times \frac{c}{r}$的实数矩阵,表示通道的恢复。
$$ {\tilde h_c} = {F_{{\rm{scale}}}}({h_c}, {s_c}) = {s_c}.{h_c} $$ (10) 式中:sc表示激活向量s的第c个元素;${\tilde h_c}$表示校准后的对应元素。
2. 绝缘子红外图像的深度学习
2.1 环境搭建
本文基于改进的Faster R-CNN方法,对平台的环境搭建要求较高,具体配置见表 1。操作系统为开源Linux,数据库为MySQL;硬件配置较高,CPU采用Intel高端系列,内存和硬盘容量均较大,保证大量数据的高效运算。框架采用2018年初公开的目标检测平台Detectron,包含最具代表性的目标检测、图像分割、关键点检测算法。
表 1 软硬件配置Table 1. Hardware and software configurationName Model Operating system Ubuntu 16.04.1 Database mysql 5.5.20 CPU Intel Xeon Silver 4114T 12C GPU NVIDIA GTX1080Ti Memory 32 G Hard disk 1 T Frame Detectron 2.2 数据准备
图像数据来源于多条输电线路无人机拍摄的大量绝缘子照片。在神经网络的训练过程中,对正负样本的判定见图 2,主要基于锚框映射图与真实目标框的交并比(Intersection over Union,IoU)来进行计算分类。首先对RPN形成的锚框进行排序筛选形成锚框序列,接着利用边框回归参数向量修正锚框的位置形成候选区域集合,然后计算所有感兴趣区域(Region of Interest,RoI)与真实目标框的IoU,求最大值,并判断其是否大于0.5,若满足,则为正样本,否则为负样本。
完成正负样本的判定后,为了使样本的采样尽量均衡,保证双方的训练集和验证集数量一致,同时采用迁移学习的方法,经过相关修正与补偿,扩充样本总量至2375,样本信息配置见表 2。
表 2 样本配置信息Table 2. Information of sample configurationsample type training set verification set test set total positive 500 250 750 1500 negative 500 250 125 875 total 1000 500 875 2375 2.3 改进模型的建立
普通的CNN方法,原始图像经过卷积层和池化层后,全链接层输出结果,本文方法的结构如图 3所示,引入压缩激励的过程,压缩特征图的空间信息,并通过激励操作学习通道间的依赖关系,可自适应分配每个通道的权重值,提取有利于任务的重要特征通道,最终能进一步增强网络模型的特征提取能力,采用SE-DenseNet-169框架的Faster R-CNN模型。
改进模型主要完成绝缘子异常状态的精准识别,首先对红外原始图像进行相关修正与补偿实现样本扩充,然后采用本文方法进行训练,收敛后,获得最终的改进Faster R-CNN模型。
3. 实验分析
3.1 精确度衡量
CNN学习中,精确度的衡量一般会采用准确率(Precision)和召回率(Recall),其计算过程分别见式(11)和式(12):
$$ {P_{{\rm{re}}}} = \frac{{{\rm{TP}}}}{{{\rm{TP}} + {\rm{FP}}}} $$ (11) $$ {P_{{\rm{ca}}}} = \frac{{{\rm{TP}}}}{{{\rm{TP + FN}}}} $$ (12) 式中:TP表示是实际值和预测值均是异常绝缘子的个数;FP表示预测值是异常绝缘子,实际值却不是的个数;FN表示是实际值是异常绝缘子,预测值却不是的个数。
为进一步衡量改进模型的优劣,这里采用平均检测精度(mean Average Precision,mAP),其中AP等价于召回率和准确率形成曲线与横轴包围的几何图形的面积,对所有类别的AP求平均值即可得到mAP。
3.2 不同方法的对比研究
基于样本数据,开展BP、Faster R-CNN以及本文方法的精确度和效率对比研究,不同方法的实验结果统计见表 3。Faster R-CNN和本文方法在Precision方面均明显优于BP方法,本文方法的Recall最高,mAP也最高,相对于BP提高了近10%,这说明经过改进的Faster R-CNN对于小目标的特征提取具有明显的优势。本文方法通过压缩激励结果,减少了数据量的计算,所以相对于其他方法,有更高的效率。
表 3 不同方法的实验结果统计Table 3. Statistics of experimental results by different methodsName Precision Recall mAP Time/s BP 93.5% 90.4% 80.3% 2.3 Faster R-CNN 98.7% 95.3% 88.7% 1.2 BFEM 99.2% 97.6% 90.2% 0.9 绘制其准确率-召回率关系曲线,如图 4所示,可更加形象直观地反映出本文方法对绝缘子异常特征的提取优势,因为另外两种方法的曲线均被完整的覆盖,说明本文方法改进效果明显。
3.3 不同类型绝缘子对比研究
常见绝缘子排列有单Ⅰ型、双Ⅰ型以及Ⅴ型。本文开展这3类绝缘子的红外图像研究,比较不同排列方式的诊断准确率,如图 5所示。根据电力标准DL/T 664-2008[19],图(b)和图(c)绝缘子端部明显发热,属于异常情况。
不同类型绝缘子的异常诊断准确率见表 4,准确率均较高,均在90%以上;Ⅰ型和Ⅴ型绝缘子的准确率明显优于双Ⅰ型绝缘子,这是因为双Ⅰ型绝缘子会出现两排绝缘子重叠的情况,对红外图像的研究造成一定的影响,为此无人机对于该种类型绝缘子的线路需开展多种角度的拍摄。
表 4 绝缘子异常诊断的准确率Table 4. Accuracy of insulator anomaly diagnosisInsulator type Abnormal total Detected number Accuracy Single Ⅰ 62 61 98.4% Double Ⅰ 47 44 93.6% Ⅴ 31 31 100.0% 4. 结论
本文提出一种改进的Faster R-CNN方法,引入激励压缩环节,搭建训练模型,完成绝缘子红外图像的异常诊断,并成功应用于电力现场运维。本文方法可高效并精准地识别出绝缘子的异常缺陷,mAP达到90.2%。研究结果可为输电线路绝缘子缺陷识别研究提供一定的参考。
-
表 1 “UN Camp”图像融合结果的客观评价数据
Table 1 Objective evaluation data of fusion results of "UN Camp" image
LPRP CBF CT DTCWT NSCT-M Ours IE 5.8736 5.8778 5.9535 6.6971 6.0300 6.7782 AG 5.0301 5.2612 5.9634 5.4543 6.9987 8.6568 SD 18.6783 18.5153 19.3430 28.6416 20.2610 33.7394 SF 10.5760 10.7665 12.6522 10.9804 14.8598 18.0516 MI 1.7317 1.7287 1.7345 1.8071 1.7482 1.7807 VIF 0.2834 0.2889 0.3066 0.4386 0.2932 0.5982 QABF 0.3531 0.3391 0.4069 0.3956 0.3895 0.4116 表 2 “Kaptein_1123”图像的融合结果的客观评价数据
Table 2 Objective evaluation data of fusion results of "Kaptein_1123" image
LPRP CBF CT DTCWT NSCT-M Ours IE 6.5108 6.5400 6.4460 6.7483 6.4623 6.7527 AG 4.7763 6.2218 3.8271 5.1686 4.2784 7.1084 SD 32.0192 32.6583 30.8624 36.0783 31.3539 47.2670 SF 11.9578 17.3752 9.9378 15.4644 11.4173 19.4531 MI 1.6681 1.6794 1.6542 1.6272 1.6570 1.6728 VIF 0.2852 0.2693 0.2639 0.1811 0.2561 0.4387 QABF 0.3080 0.2947 0.2552 0.3225 0.2737 0.3362 表 3 “Quad”图像的融合结果客观评价数据
Table 3 Objective evaluation data of fusion results of "Quad" image
LPRP CBF CT DTCWT NSCT-M Ours IE 5.7331 5.8807 6.4628 6.0780 5.7632 6.0501 AG 2.6998 3.1727 2.9816 3.0675 2.9061 3.4874 SD 29.8808 28.9345 34.2477 39.7308 26.0337 35.0966 SF 6.6144 7.5910 7.1388 7.4617 7.1121 8.1971 MI 1.7991 1.7882 1.8732 1.8816 1.7565 1.8579 VIF 0.1881 0.2749 0.3262 0.2403 0.2637 0.2963 QABF 0.2010 0.3970 0.3509 0.2436 0.4100 0.4534 表 4 “UN Camp”融合图像的达成度
Table 4 Degree of "UN Camp" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.8665 0.8672 0.8783 0.9880 0.8896 1.0000 AG 0.5811 0.6078 0.6889 0.6301 0.8085 1.0000 SD 0.5536 0.5488 0.5733 0.8489 0.6005 1.0000 SF 0.5859 0.5964 0.7009 0.6083 0.8232 1.0000 MI 0.9583 0.9566 0.9598 1.0000 0.9674 0.9854 VIF 0.4738 0.4829 0.5125 0.7332 0.4901 1.0000 QABF 0.8579 0.8239 0.9886 0.9611 0.9463 1.0000 TGA 4.8770 4.8835 5.3023 5.7696 5.5256 6.9854 表 5 “Kaptein_1123”融合图像的达成度
Table 5 degree of "Kaptein_1123" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.9642 0.9685 0.9546 0.9993 0.9570 1.0000 AG 0.6719 0.8753 0.5384 0.7271 0.6019 1.0000 SD 0.6774 0.6909 0.6529 0.7633 0.6633 1.0000 SF 0.6147 0.8932 0.5109 0.7950 0.5869 1.0000 MI 0.9933 1.0000 0.9850 0.9689 0.9867 0.9961 VIF 0.6501 0.6139 0.6016 0.4128 0.5838 1.0000 QABF 0.9161 0.8766 0.7591 0.9593 0.8141 1.0000 TGA 5.4877 5.9183 5.0024 5.6257 5.1937 6.9961 表 6 “Quad”融合图像的达成度
Table 6 degree of "Quad" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.8871 0.9099 1.0000 0.9405 0.8917 0.9361 AG 0.7742 0.9098 0.8550 0.8796 0.8333 1.0000 SD 0.7521 0.7283 0.8620 1.0000 0.6553 0.8834 SF 0.8069 0.9261 0.8709 0.9103 0.8676 1.0000 MI 0.9562 0.9504 0.9955 1.0000 0.9335 0.9874 VIF 0.5766 0.8427 1.0000 0.7367 0.8084 0.9083 QABF 0.4433 0.8756 0.7739 0.5373 0.9043 1.0000 TGA 5.1964 6.1428 6.3573 6.0044 5.8941 6.7152 -
[1] MA J, MA Y, LI C. Infrared and visible image fusion methods and applications: A survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004
[2] HUANG Z, CHEN L, ZHANG Y, et al. Robust contact-point detection from pantograph-catenary infrared images by employing horizontal- vertical enhancement operator[J]. Infrared Physics & Technology, 2019, 101: 146-155.
[3] HUANG Z, FANG H, LI Q, et al. Optical remote sensing image enhancement with weak structure preservation via spatially adaptive gamma correction[J]. Infrared Physics & Technology, 2018, 94: 38-47.
[4] 肖中杰.基于NSCT红外与可见光图像融合算法优化研究[J].红外技术, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010 XIAO Zhongjie. Optimization of Infrared and Visible Image Fusion Algorithm based on NSCT[J]. Infrared Technology, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010
[5] ZHANG B, LU X, PEI H, et al. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform[J]. Infrared Physics & Technology, 2015, 73: 286-297.
[6] ZHOU Z, WANG B, LI S, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 15-26. DOI: 10.1016/j.inffus.2015.11.003
[7] MA J, YU W, LIANG P, et al. Fusion GAN: A generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26. DOI: 10.1016/j.inffus.2018.09.004
[8] ZHANG Y, ZHANG L, BAI X, et al. Infrared and visual image fusion through infrared feature extraction and visual information preservation[J]. Infrared Physics & Technology, 2017, 83: 227-237.
[9] 肖进胜, 饶天宇, 贾茜, 等.基于图切割的拉普拉斯金字塔图像融合算法[J].光电子·激光, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm XIAO Jinsheng, RAO Tianyu, JIA Qian, et al. Image fusion algorithm of Laplacian Pyramid based on graph Cutting[J]. Photoelectron Laser, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm
[10] 刘斌, 付忠旺.基于四通道不可分提升小波的多聚焦图像融合[J].系统工程与电子技术, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm LIU Bin, FU Zhongwang. Multi-focus image fusion based on four-channel Indivisible Lifting Wavelet[J]. Systems Engineering and Electronics technology, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm
[11] 薛琴, 范勇, 李绘卓, 等.基于广义邻域结构相似度的红外和彩色可见光图像融合[J].四川大学学报:自然科学版, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017 XUE Qin, FAN Yong, LI Huizhong, et al. Infrared and color visible light image fusion based on generalized neighborhood structure similarity[J]. Journal of Sichuan University: Natural Science, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017
[12] DA Cunha A L, ZHOU J, DO M N. The nonsubsampled contourlet transform: theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15(10): 3089-3101. DOI: 10.1109/TIP.2006.877507
[13] ZHU Z, YIN H, CHAI Y, et al. A novel multi-modality image fusion method based on image decomposition and sparse representation[J]. Information Sciences, 2018, 432: 516-529. DOI: 10.1016/j.ins.2017.09.010
[14] 甄媚, 王书朋.可见光与红外图像自适应加权平均融合方法[J].红外技术, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008 ZHEN Mei, WANG Shupeng. Adaptive Weighted average fusion method for Visible light and infrared Images[J]. Infrared Technology, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008
[15] XIA Z, PENG X, FENG X, et al. Scarce face recognition via two-layer collaborative representation[J]. IET Biometrics, 2017, 7(1): 56-62.
[16] 张新曼, 韩九强.基于视觉特性的多尺度对比度塔图像融合及性能评价[J].西安交通大学学报, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013 ZHANG Xinman, HAN Jiuqiang. Image fusion and Performance Evaluation of Multi-scale Contrast tower based on visual Characteristics[J]. Journal of Xi 'an Jiaotong University, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013
[17] 徐丹萍, 王海梅.基于双边滤波和NSST的红外与可见光图像融合[J].计算机测量与控制, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm XU Danping, WANG Haimei. Infrared and visible image fusion based on bilateral Filtering and NSST[J]. Computer Measurement and Control, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm
[18] 李晖晖, 郭雷, 刘坤.基于曲波变换的遥感图像融合研究[J].光电子·激光, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029 LI Huihui, GUO Lei, LIU Kun. Research on Remote sensing Image Fusion based on Qu Wave Transform[J]. Optoelectronics.Laser, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029
[19] 王亚杰, 李殿起, 徐心和.基于双树复小波变换彩色多聚焦图像融合方法[J].计算机工程与应用, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005 WANG Yajie, LI Dianqi, XU Xinhe. Color Multi-focus image fusion method based on Double tree Complex Wavelet Transform[J]. Computer Engineering and Applications, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005
[20] JIN X, JIANG Q, YAO S, et al. A survey of infrared and visual image fusion methods[J]. Infrared Physics & Technology, 2017, 85: 478-501.
[21] 王跃华, 陶忠祥.红外与可见光图像融合质量评价方法综述[J].红外, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002 WANG Yuehua, TAO Zhongxiang. Review of evaluation methods of infrared and visible image fusion quality[J]. Infrared, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002
[22] QU G, ZHANG D, YAN P. Information measure for performance of image fusion[J]. Electronics letters, 2002, 38(7): 313-315. DOI: 10.1049/el:20020212
[23] HAN Y, CAI Y, CAO Y, et al. A new image fusion performance metric based on visual information fidelity[J]. Information Fusion, 2013, 14(2): 127-135. DOI: 10.1016/j.inffus.2011.08.002
[24] 薄瑞峰, 苗鸿宾.目标达成度评价法在机械设计课程考核中的应用[J].机械设计, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm BO Ruifeng, MIAO Hongbin. Application of objective Achievement Evaluation method in mechanical Design Course Assessment[J]. Mechanical Design, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm
-
期刊类型引用(8)
1. 李明超,闫宽,张聪,胡记伟,欧锴,陈绪兵. 用于激光软钎焊温度测量的高精度红外辐射测温装置. 红外技术. 2025(01): 108-114 . 本站查看
2. 秦沛强,聂传杰,吝曼卿,卢永雄,张岸勤,何家冰. 磷矿巷道岩爆风险的可视化及特征增强研究. 矿业研究与开发. 2025(02): 123-131 . 百度学术
3. 李贞,魏勇. 基于BP神经网络的红外测温补偿算法研究. 机械制造与自动化. 2023(01): 170-172+176 . 百度学术
4. 曾飞,胡文祥,高彦鑫,宋杰杰. 基于激光扫描的输送带横向跑偏检测系统. 制造业自动化. 2023(05): 21-24 . 百度学术
5. 杨帆,徐军,吴振生,孙明晓,金添. 基于Web端多节点红外热成像传感系统设计. 激光杂志. 2022(02): 154-157 . 百度学术
6. 何翔. 非接触式检测装置综合实验设计. 电子技术与软件工程. 2022(07): 148-151 . 百度学术
7. 谢彬棽. 基于双CAN总线的露天矿带式输送机速度自动化控制方法. 煤矿机械. 2022(12): 214-217 . 百度学术
8. 武存喜. 回转窑焚烧设备退火温度模糊自适应控制技术. 工业加热. 2022(12): 27-31 . 百度学术
其他类型引用(2)