Infrared Image Segmentation of Methane Leaks Incorporating Attentional Branching Features
-
摘要: 甲烷是现代化工业生产和社会生活的重要能源之一,实现其有效探测与分割对于及时发现甲烷泄漏事故并识别其扩散范围具有重要意义。针对红外成像条件下甲烷气体图像的轮廓模糊、泄漏的甲烷气体与背景对比度较低、形状易受大气流动因素影响等问题,本文提出一种融合注意力分支特征的红外图像分割网络(Attention Branch Feature Network,ABFNet)实现甲烷气体泄漏探测。首先,为增强模型对红外甲烷气体图像的特征提取能力,设计分支特征融合模块将残差模块1和残差模块2的输出特征与残差模块3以逐像素相加的方法融合,获取红外甲烷气体图像丰富细致的特征表达以提高模型识别精度。其次,为进一步加快模型的推理速度,将标准瓶颈单元中的3×3卷积替换为深度可分离卷积,大幅度减少参数量达到实时检测甲烷气体泄漏。最后,将scSE注意力机制嵌入到分支特征融合模块,更多地关注扩散区域边缘和中心语义信息以克服红外甲烷气体轮廓模糊对比度低等问题提高模型的泛化能力。实验结果表明,本文提出的ABFNet模型AP50@95、AP50、AP60定量分割精度分别达到38.23%、89.63%和75.33%,相比于原始YOLACT模型分割精度,分别提高4.66%、3.76%和7.04%,推理速度达到34.99帧/s,满足实时检测需求。实验结果验证了本文算法对红外甲烷泄漏检测的有效性和工程实用性。Abstract: Methane is an important energy source for modern industrial production and social life, and its effective detection and segmentation are important for the timely detection of methane leaks and identification of its diffusion range. To address image problems such as blurred contours of methane gas, low contrast between leaking methane gas and the background, and susceptibility of the shape to atmospheric flow factors under infrared imaging conditions, this study proposes an infrared image segmentation network (attention branch feature network (ABFNet)) incorporating attention branch features to achieve methane gas leak detection. First, to enhance the feature extraction capability of the model for IR methane gas images, a branch feature fusion module was designed to fuse the output features of residual modules 1 and 2 with residual module 3 in a pixel-by-pixel summing method to obtain rich and detailed feature expressions of IR methane gas images to improve the model's recognition accuracy. Second, to further accelerate the inference speed of the model, the 3×3 convolution in the standard bottleneck unit was replaced with a depth-separable convolution to significantly reduce the number of parameters required for real-time methane gas leak detection. Finally, scSE attention mechanisms were embedded in the branching feature fusion module to focus more on the edge and center semantic information of the diffusion region to overcome the problem of low contrast of the blurred IR methane gas contours and improve the generalization ability of the model. The experimental results showed that the quantitative segmentation accuracy of the proposed ABFNet models AP50@95, AP50, and AP60 reached 38.23%, 89.63%, and 75.33%, respectively, with improvements of 4.66%, 3.76%, and 7.04%, respectively, compared with the segmentation accuracy of the original YOLACT model. The inference speed reached 34.99 frames/s and met the demand of real-time detection. The experimental results verified the effectiveness and engineering practicality of the proposed algorithm for infrared methane leak detection.
-
0. 引言
红外热像仪在变电设备的热故障监测具有广泛的应用,但单帧红外图像普遍存在视场窄、分辨率低等缺点,难以准确、及时地获取变电设备的整体状态[1]。通过图像拼接可将若干存在重叠区域的图像拼接成一幅无缝、无重影的宽视场图像,有助于监测变电设备整体的状态,提高巡检效率。但传统最佳缝合线或渐入渐出融合法进行融合时,往往会导致重叠区域存在明显的拼接痕迹或重影现象。因此研究一种适用于变电设备的红外图像拼接方法具有十分重要的意义。
针对成像场景不同而导致红外图像间存在亮度差异问题,文献[2]等提出了一种改进的红外图像拼接算法,该算法采用平台直方图均衡化提高红外图像对比度,解决了因图像亮度差异而导致的拼接痕迹,但该算法对变电站复杂场景的适应性并不强。而文献[3]通过在感兴趣区域中提取SIFT特征点并结合KLT(Kanade-Lucas-Tomasi)跟踪算法确定特征点的位置信息并进行匹配,采用渐入渐出融合算法消除拼接痕迹,使得配准率提高了3.491%。文献[4]引入图像梯度信息,利用像素亮度差计算重叠区域的边权值,并采用图切割法寻求最佳缝合线,最后利用渐入渐出方法融合过渡,对于序列遥感图像的拼接取得了较好效果,但对于变电站红外图像拼接存在鬼影现象。文献[5]为解决图像融合中运动物体与缝合线过于靠近而造成鬼影的问题,引入颜色饱和度S改进能量函数,并在最佳缝合线搜索准则中加入局部信息权重来提高搜索灵活度,一定程度上消除了因运动物体靠近缝合线而产生的鬼影,但对于噪声严重的变电站红外图像拼接存在一定的局限性。
上述研究成果为变电站红外图像拼接提供较好的参考思路,但由于成像环境复杂、红外图像噪声干扰大,导致部分图像拼接出现明显的拼接痕迹或重影现象。因此,本文提出一种改进最佳缝合线的红外图像拼接方法,该方法在拼接区域上引入局部权重系数,并对图像颜色差异强度进行形态学操作抑制噪声干扰,并通过动态规划改进缝合线搜索准则,搜索出最佳缝合线。
1. 改进的最佳缝合线算法
为改善因成像环境复杂而造成配准效果不佳的问题,本文首先使用SIFT算法对图像进行配准,从而实现图像的一次拼接[6],然后再采用最佳缝合线算法进行图像融合[7]。
1.1 最佳缝合线获取
最佳缝合线的目的是使得拼接线从两幅图像重叠区域中差异最小的位置穿过,以尽可能地减少图像的偏差而带来拼接痕迹。其求解准则E(x, y)为:
$$ E(x, y) = E_{\text{c}}^2(x, y) + {E_{{\text{geometry}}}}(x, y) $$ (1) 式中:Ec(x, y)为图像颜色差异强度值;Egeometry(x, y)为图像结构差异强度值。Ec(x, y)表达式为:
$$ {E_{\rm{c}}}(x,y) = {I_{{\rm{gray}}}}_1(x,y) - {I_{{\rm{gray}}}}_2(x,y) $$ (2) 式中:Igray1(x, y)和Igray2(x, y)分别表示两幅待拼接图像I1和I2对应的灰度图。
而Egeometry(x, y)表达式为:
$$ {E_{{\text{geometry}}}}(x, y){{ = }}{\rm{Diff}}{\text{(}}{I_1}{\text{(}}x, y{\text{) , }}{I_2}{\text{(}}x, y{\text{))}} $$ (3) 式中:Diff为计算I1和I2两幅图像在x和y方向梯度差的乘积因子。
1.2 能量函数的改进
红外图像相较于可见光图像而言,其边界模糊,信噪比低,采用式(1)求解准则所得到的能量函数图存在较多噪声,图像的边缘信息模糊,如图 1(a)所示,搜索到的最佳缝合线往往不是从能量差异值最小的位置穿过,容易导致拼接重叠区域存在明显拼缝或重影。
因此,对能量函数改进,在式(1)中引入权重系数ωxy,并对图像颜色差异强度值Ecolor(x, y)的求解进行改进,求解准则Ea(x, y)定义为:
$$ {E_{\rm{a}}}(x, y) = {\omega _{xy}}(E_{{\text{color}}}^2(x, y) + {E_{{\text{geometry}}}}(x, y)) $$ (4) 式中:Ecolor(x, y)为改进后的图像颜色差异强度值;而Egeometry(x, y)通过式(3)求解;ωxy为I1和I2重叠区域上点(x, y)处加权值。
$$ {\omega _{xy}} = \left\{ {\begin{array}{*{20}{c}} {k\frac{{{\delta _{xy}}}}{{{\delta _{\text{M}}}}}}&{{\delta _{xy}} < 0.7{\delta _{\text{M}}}} \\ { + \infty }&{{\text{others}}} \end{array}} \right. $$ (5) 式中:k为差异图像加权系数;δxy为I1和I2重叠区域上点(x, y)处的差异值,δM=max(δxy)。δxy定义为:
$$ {\delta _{xy}}{\text{ = }}\frac{{\left| {{I_1}{\text{(}}x, y{\text{) }} - {I_2}{\text{(}}x, y{\text{)}}} \right|}}{{\max {\text{(}}{I_1}{\text{(}}x, y{\text{) , }}{I_2}{\text{(}}x, y{\text{))}}}} $$ (6) 引入形态学操作对Ecolor(x, y)的求解进行改进,采用灰度差图像的绝对值来近似计算,则:
$$ E_{{\text{color}}}^{}(x, y) = \left\{ \begin{gathered} {I_{12}}(x, y) \times {W_{{\text{color}}}}\quad {I_{\text{bin}}}(x, y) = 1 \hfill \\ {I_{12}}(x, y)\quad \quad \quad \;\, \, {I_{\text{bin}}}(x, y) = 0\; \hfill \\ \end{gathered} \right. $$ (7) 式中:I12为灰度差图像;Ibin为二值图像;Wcolor为权重系数。
灰度差图像I12通过式(8)求解:
$$ {I_{12}}(x, y) = {\text{abs(}}{I_{\text{gray}}}_1(x, y) - {I_{\text{gray}}}_2(x, y){\text{)}} $$ (8) 二值图像Ibin根据式(9)求解:
$$ {I_{{\rm{bin}}}}(x,y)= \left\{ {\begin{array}{*{20}{c}} 1&{({I_{12}}(x, y) \geqslant 1.5 \times {\rm{Imag}}{{\rm{e}}_{{\rm{avg}}}})} \\ 0&{({I_{12}}(x, y) < 1.5 \times {\rm{Imag}}{{\rm{e}}_{{\rm{avg}}}})} \end{array}} \right. $$ (9) 式中:Imageavg为灰度差图像I12重叠区域内(x, y)像素的平均值。
图 1(a)和图 1(b)分别为改进前与本文改进后的能量函数图。通过对比可以发现,图 1(a)噪声较多,纹理不清晰;图 1(b)图像中大量噪声已经被滤除,同时也保留了图像重要的纹理信息,图像目标边缘和结构信息更清晰,更能突显红外图像的颜色差异与结构差异。
1.3 动态规划搜索
传统的最佳缝合线搜索路径时,仅搜索所在位置下一行中的3个紧邻点,最大仅能向下方45°方向扩展,搜索路径上存在一定限制。因此,本文对搜索方法进行改进,由原来只搜索3个紧邻点扩展至搜索下一行中9个紧邻点,改进的搜索流程图,如图 2所示。
① 设两幅待拼接图像I1和I2的重叠区域列数为m,把图像重叠区域中第一行的每个像素点作为缝合线的初始点,即m列对应m条缝合线;
② 搜索缝合线的扩展点。选择每条缝合线当前点(x, k)下一行的9个紧邻点作为备选扩展点,当前点与备选扩展点之间路径的能量值计算公式为:
$$ {E_{{\text{sum}}}}(x, y){\text{ = }}\left\{ {\begin{array}{*{20}{c}} {\sum\limits_{i{\text{ = }}k + 1}^y {{E_{\text{N}}}(x, i)} }&{0 < y - k \leqslant 4} \\ 0&{y = k} \\ {\sum\limits_{i{\text{ = }}y}^{k - 1} {{E_{\text{N}}}(x, i)} }&{ - 4 \leqslant y - k < 0} \end{array}} \right. $$ (10) 式中:Esum(x, y)表示第x行中的第y列到第k列之间所有点的能量值之和。EN(x, i)为点(x, i)的能量值。
将每个备选扩展点的能量值与式(10)计算路径的能量值Esum(x, y)相加,得到备选扩展点总的能量值。进而一一比较每个备选扩展点总的能量值,选择最小值Es(x+1, y)的备选扩展点作为缝合线的扩展点。Es(x+1, y)的计算式为:
$$ {E_{\text{s}}}(x{\text{ + }}1, y){\text{ = }}\mathop {\min }\limits_{k - 4 \leqslant y \leqslant k + 4} ({E_{\text{N}}}(x + 1, y) + {E_{{\text{sum}}}}(x, y)) $$ (11) 式中:k为缝合线扩展当前点(x, k)前所在的列,x+1、y为当前点在下一行备选扩展点的行、列。确定新扩展点后,更新得到缝合线扩展后的能量值S(x+1, y),即:
$$ S(x+1, y)=S(x, k)+E_{2}(x+1, y) $$ (12) 式中:S(x, k)表示缝合线扩展前的能量值。
③ 完成当前行后继续返回步骤②扩展下一行的点,直至扩展至图像最后一行,跳转到步骤④;
④ 经过前面3个步骤,得到m条缝合线。从m条缝合线中,将能量值最小的缝合线选定为最佳缝合线。
1.4 算法实现流程
改进最佳缝合线的红外图像拼接算法流程图,如图 3所示。
先采用SIFT算法提取图像区域特征,实现图像配准;然后在重合区域上引入局部权重系数对图像颜色差异强度进行形态学操作,抑制噪声干扰进而改善能量函数图的纹理信息;最后通过动态规划改进缝合线搜索准则,搜索出最佳缝合线,进而完成图像拼接。
2. 红外图像拼接实验验证与分析
为了验证算法的有效性,将本文方法与渐入渐出法、ORB算法、基于颜色校正的全景图像拼接方法[8]、传统最佳缝合线法进行对比实验,实验平台为PyCharm2019+Python3.6。
2.1 红外图像拼接效果分析
2.1.1 绝缘子红外图像拼接
使用红外热像仪采集绝缘子图像,分辨率为384×288。绝缘子图像如图 4所示。
对图 4的红外图像进行初步拼接,然后由最佳缝合线求解准则得到能量函数图,再通过动态规划方法搜索到缝合线,如图 5所示。
由图 5(a)和图 5(b)可知,改进前能量函数图的噪声严重,缝合线受噪声干扰较大,改进后能量函数图的噪声得到了明显抑制,使得图像重叠区域的结构和边缘更清晰,缝合线很好地沿着能量最低的区域经过,避免拼接图像出现局部错位。
不同算法的拼接效果如图 6所示。由图得知,通过渐入渐出法拼接后的图像,在电缆处出现明显重影。采用ORB算法拼接的图像,在绝缘子顶部的电缆接头处存在噪声斑点。基于颜色校正的全景图像拼接方法得到的图像,虽然噪声斑点较少,但是在电缆处存在明显的重叠和错位现象。采用传统最佳缝合线法拼接的图像同样存在错位现象。
相对于以上算法的拼接结果,采用本文改进最佳缝合线法拼接的图像,图像中局部放大区域未出现重影,融合的过渡区域无错位现象,细节更加清晰。这有助于后续获取变电设备的细节信息,从而更加高效地监测电气设备的整体状态。
2.1.2 变压器红外图像拼接
使用红外热像仪采集的变压器图像如图 7所示。
对图 7的红外图像进行初步拼接,然后由最佳缝合线求解准则得到能量函数图,再通过动态规划方法搜索找到缝合线,如图 8所示。
通过图 8(a)和图 8(b)对比可知,改进前能量函数图的噪声严重,缝合线受噪声干扰较大;改进后能量函数图去除了大部分干扰信息,图像重叠区域的结构和边缘更清晰,使得缝合线能很好地沿着能量最低的区域经过,能有效避免拼接图像局部出现变形错位。
不同算法的拼接效果如图 9所示。由图得知,采用渐入渐出法拼接后的图像,虽然没有明显的拼接缝隙,但在图像重叠区域边缘出现了重影现象。基于ORB算法的拼接图像同样出现重影现象。基于颜色校正的全景图像拼接方法拼接后的图像,由于图像配准存在偏差,导致图像出现错位现象。传统最佳缝合线法拼接后的图像,虽然没有明显的重影现象,但在融合区域存在拼接痕迹。
本文改进最佳缝合线法拼接后的图像,由于最大限度地避免缝合线穿过两幅图像差异较大的区域,相对以上算法的拼接结果,均未出现重影和错位现象,整体视觉效果更好。
2.2 红外图像拼接质量评价
为评价改进算法的效果,反映红外图像的细节信息,选取了文献[9]所用的平均梯度AG、图像清晰度FD和图像边缘强度EI指标衡量改进算法的图像拼接效果。
平均梯度AG表示图像平滑程度,反映图像细节反差能力,其数值越高,表示图像信息更丰富,图像细节保留更好,拼接效果过渡更自然。计算式为:
$$ {A_{\rm{G}}} = \frac{1}{{M \times N}}\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {\sqrt {\frac{1}{2}\left( {{{\left( {{{\partial f} / {\partial x}}} \right)}^2} + {{\left( {{{\partial f} / {\partial y}}} \right)}^2}} \right)} } } $$ (13) 式中:M×N为图像的尺寸;∂f/∂x表示图像在水平方向的梯度,而∂f/∂y表示图像在垂直方向的梯度。
图像清晰度FD反映细节纹理信息,数值越高,表示图像的清晰程度越好,细节保留得越好。图像边缘强度EI则反映图像的边缘信息,其数值越高,表示图像边缘越清晰。
表 1给出了平均梯度AG、图像清晰度FD和图像边缘强度EI的评价结果,从表中的数据可以看出:在绝缘子和变压器图像拼接实验中,采用本文改进的最佳缝合线方法与渐入渐出法、ORB算法、基于颜色校正的全景图像拼接方法和传统最佳缝合线方法相比,平均梯度AG的均值分别提高了2.74%、14.84%、8.54%和1.18%,这表明图像的信息更丰富,图像细节保留更好。图像清晰度FD的均值分别提高了3.27%、21.03%、8.75%和1.5%,即改进算法的拼接图像效果清晰度更好。边缘强度EI的均值分别提高了2.40%、5.7%、0.93%和1.05%,这表明改进算法在红外图像拼接中,图像边缘清晰度更好。
表 1 拼接效果性能评价指标Table 1. Performance evaluation of image fusion algorithmsExperiment Algorithm AG FD EI Insulator image Fade in and fade out algorithm 7.0990 9.5881 70.8824 Image stitching based on ORB algorithm 6.6598 8.4017 68.6762 Fast Panorama Stitching method based on color correction 7.0382 9.4342 70.6413 The traditional best seam-line method 7.1702 9.6849 71.4189 The improved best seam-line method 7.1971 9.7345 71.6704 The transformer image Fade in and fade out algorithm 5.9331 6.8986 63.6720 Image stitching based on ORB algorithm 5.0789 5.7405 61.6745 Fast Panorama Stitching method based on color correction 5.3790 6.3366 65.7563 The traditional best seam-line method 6.0560 7.0687 64.8862 The improved best seam-line method 6.1768 7.2439 66.0150 3. 结论
本文针对变电站场景的红外图像,提出了一种改进最佳缝合线的红外图像拼接方法。利用改进的算法进行图像拼接后,图像融合区域过渡更平滑,拼接痕迹明显减少,且拼接后的图像在平均梯度、图像清晰度和图像边缘强度均有所提高,有效地避免了结果图像出现明显拼接痕迹等问题,有助于后续获取变电设备整体的准确状态,对提高巡检效率具有重要意义。
-
表 1 FLIR GF-320红外热像仪技术参数
Table 1 Infrared thermal imaging camera technical parameters
Parameter name Parameter value Model number FLIR GF320 Resolution 320×240 Thermal sensitivity <10 mK Detector type Refrigeration type indium antimonide Wavelength range 3.2-3.4 μm 表 2 超参数配置
Table 2 Hyperparameter configuration
Hyperparameters Parameter value Initial learning rate 0.001 Weight_decay 1e-3 Learning rate decay strategy steps_with_decay Decay_steps (35000, 75000, 85000) Gamma 0.1 Number of warm-up iterations 500 Warm-up iteration strategy Liner Total number of iterations 110000 表 3 分支特征融合模块实验
Table 3 Experiment of branch feature fusion module
Models AP50@95/% AP50/% AP60 /% Inference speed/FPS Yolact 33.57 85.87 68.29 36.18 Yolact-ABF 35.11 87.69 72.22 33.75 表 4 深度可分离卷积实验
Table 4 Depthwise separable convolution experiments
Models AP50@95/% AP50/% AP60/% Inference speed/FPS Params/M Yolact-ABF 35.11 87.69 72.22 33.75 23.50 Yolact-ABF-DWConv 35.42 87.30 69.81 37.26 13.48 表 5 scSE意力机制对比
Table 5 Comparison of scSE intentional force mechanisms
Embed position AP50@95/% AP50/% AP60% Inference speed/FPS Layer1+2 35.90 87.61 71.86 35.84 Layer1+3 38.23 89.63 75.33 34.99 Layer1+4 36.67 87.80 74.76 35.19 Layer2+3 36.03 86.58 70.16 35.21 Layer2+4 35.28 84.25 73.58 34.87 Layer3+4 36.43 87.31 71.24 35.64 Layer1+2+3+4 34.13 85.61 70.12 30.15 表 6 消融实验
Table 6 Ablation experiments
Models Branch feature fusion DWConv convolution Attention AP50@95/% AP50/% AP60/% Inference speed/FPS YOLACT 33.57 85.87 68.29 36.18 YOLACT -ABF √ 35.11 87.69 72.22 33.75 YOLACT -DWConv √ 34.43 85.95 71.68 40.57 YOLACT -scSE √ 37.20 87.30 71.87 34.12 YOLACT -ABF- DWConv √ √ 36.64 87.72 71.24 37.26 YOLACT -ABF- scSE √ √ 35.45 86.56 67.96 34.05 YOLACT -DWConv-scSE √ √ 36.93 87.74 71.92 39.62 ABFNet √ √ √ 38.23 89.63 75.33 34.99 表 7 不同算法对比
Table 7 Comparison of different algorithms
Models AP50@95/% AP50/% AP60/% Inference speed/FPS Yolact 33.57 85.87 68.29 36.18 YolactEdge 32.79 85.30 67.45 37.35 Mask R-CNN 32.60 85.20 69.37 31.23 ABFNet 38.23 89.63 75.33 34.99 -
[1] 朱亮, 高少华, 丁德武, 等. 光学气体成像技术在泄漏检测与维修中的应用研究[J]. 安全、健康和环境, 2014, 14(4): 14-16. https://www.cnki.com.cn/Article/CJFDTOTAL-SAFE201404004.htm ZHU L, GAO S H, DING D W, et al. Study on the application of optical gas imaging technology in leak detection and repair[J]. Safety, Health and Environment, 2014, 14(4): 14-16. https://www.cnki.com.cn/Article/CJFDTOTAL-SAFE201404004.htm
[2] 屈姣. 甲烷和煤尘爆炸特性实验研究[D]. 西安: 西安科技大学, 2015. QU J. Experimental study on the explosion characteristics of methane and coal dust[D]. Xi'an: Xian University of Science and Technology, 2015.
[3] 张旭, 金伟其, 李力, 等. 天然气泄漏被动式红外成像检测技术及系统性能评价研究进展[J]. 红外与激光工程, 2019, 48(S2): 53-65. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ2019S2008.htm ZHANG X, JIN W Q, LI L, et al. Research progress on passive infrared imaging detection technology and system performance evaluation for natural gas leakage[J]. Infrared and Laser Engineering, 2019, 48(S2): 53-65. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ2019S2008.htm
[4] 孟宗. 透射式光纤甲烷气体监测系统的研究[J]. 仪器仪表学报, 2005(S1): 49-50. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB2005S1019.htm MENG Z. Research on transmission type fiber optic methane gas monitoring system[J]. Journal of Instrumentation, 2005(S1): 49-50. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB2005S1019.htm
[5] HU L, ZHENG C, ZHANG M, et al. Long-distance in-situ methane detection using near-infrared light-induced thermo-elastic spectroscopy[J]. Photoacoustics, 2020, 21: 100230.
[6] 苑彬, 陈书立. 红外吸收光谱型城市路网尾气浓度检测传感器[J]. 电子器件, 2020, 43(2): 471-476. DOI: 10.3969/j.issn.1005-9490.2020.02.042 YUAN B, CHENG S L. Infrared absorption spectroscopy-based urban road network exhaust concentration detection sensor[J]. Electronic Devices, 2020, 43(2): 471-476. DOI: 10.3969/j.issn.1005-9490.2020.02.042
[7] 迟晓铭, 肖安山, 朱亮, 等. 石化企业气体泄漏红外成像检测技术研究进展[J]. 安全、健康和环境, 2021, 21(2): 1-5. https://www.cnki.com.cn/Article/CJFDTOTAL-SAFE202102001.htm CHI X Q, XIAO AN S, ZHU L, et al. Research progress of infrared imaging detection technology for gas leakage in petrochemical enterprises[J]. Safety, Health and Environment, 2021, 21(2): 1-5. https://www.cnki.com.cn/Article/CJFDTOTAL-SAFE202102001.htm
[8] 洪少壮. 基于视觉的红外气体泄漏检测算法研究[D]. 大连: 大连海事大学, 2020. HONG S Z. Research on Infrared Gas Leak Detection Algorithm Based on Vision[D]. Dalian: Dalian Maritime University, 2020.
[9] 熊仕富. 红外热成像甲烷气体探测与识别系统关键技术研究[D]. 长春: 长春理工大学, 2018. XIONG S F. Research on Key Technologies of Infrared Thermal Imaging Methane Gas Detection and Identification System[D]. Changchun: Changchun University of Science and Technology, 2018.
[10] 王云云. 基于红外多光谱的有毒有害气体被动遥测方法研究[D]. 合肥: 中国科学技术大学, 2021. WANG Y Y. Research on Passive Telemetry of Toxic and Hazardous Gases Based on Infrared Multispectrum[D]. Hefei: University of Science and Technology of China, 2021.
[11] 方鹏, 郝宏运, 李腾飞, 等. 基于注意力机制和可变形卷积的鸡只图像实例分割提取[J]. 农业机械学报, 2021, 52(4): 257-265. https://www.cnki.com.cn/Article/CJFDTOTAL-NYJX202104027.htm FANG P, HAO H Y, LI T F, et al. Extraction of chicken image instance segmentation based on attention mechanism and deformable convolution[J]. Journal of Agricultural Machinery, 2021, 52(4): 257-265. https://www.cnki.com.cn/Article/CJFDTOTAL-NYJX202104027.htm
[12] 林云. 基于深度学习的有害气体红外图像处理研究[D]. 杭州: 浙江工商大学, 2018. LIN Y. Research on infrared image processing of harmful gases based on deep learning[D]. Hangzhou: Zhejiang University of Technology and Industry, 2018.
[13] ZENG J, LIN Z, QI C, et al. An improved object detection method based on deep convolution neural network for smoke detection[C]// International Conference on Machine Learning and Cybernetics (ICMLC), 2018: 184-189.
[14] Bolya D, Zhou C, Xiao F, et al. Yolact: Real-time instance segmentation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 9157-9166.
[15] XIE S, Girshick R, Dollár P, et al. Aggregated residual transformations for deep neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1492-1500.
[16] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[J]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016: 770-778.
[17] 韩明, 王景芹, 王敬涛, 等. 级联特征融合孪生网络目标跟踪算法研究[J]. 计算机工程与应用, 2022, 58(6): 11. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202206021.htm HAN M, WANG J J, WANG J T, et al. Research on cascaded feature fusion twin network target tracking algorithm[J]. Computer Engineering and Applications, 2022, 58(6): 11. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202206021.htm
[18] 何自芬, 黄俊璇, 刘强, 等. 基于非对称混洗卷积神经网络的苹果叶部病害分割[J]. 农业机械学报, 2021, 52(8): 221-230. https://www.cnki.com.cn/Article/CJFDTOTAL-NYJX202108022.htm HE Z F, HUANG J X, LIU Q, et al. Apple leaf disease segmentation based on asymmetric mixed wash convolutional neural network[J]. Journal of Agricultural Machinery, 2021, 52(8): 221-230. https://www.cnki.com.cn/Article/CJFDTOTAL-NYJX202108022.htm
[19] Chollet F. Xception: Deep learning with depthwise separable convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1251-1258.
[20] Roy A G, Navab N, Wachinger C. Concurrent spatial and channel 'squeeze & excitation' in fully convolutional networks[C]//Medical Image Computing and Computer Assisted Intervention-MICCAI, 2018: 421-429.
[21] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.
[22] WANG J, Tchapmi L P, Ravikumar A P, et al. Machine vision for natural gas methane emissions detection using an infrared camera[J]. Applied Energy, 2020, 257: 113998.
[23] LIU H, Soto R A R, Xiao F, et al. YOLACT edge: Real-time instance segmentation on the edge[C]//IEEE International Conference on Robotics and Automation (ICRA), 2021: 9579-9585.
[24] HE K, Gkioxari G, Dollár P, et al. Mask R-CNN[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.
-
期刊类型引用(1)
1. 曹世超,刘晓营,梁舒. 基于双密度双树复小波变换的红外图像降噪算法. 邢台职业技术学院学报. 2022(03): 93-97 . 百度学术
其他类型引用(5)