基于多尺度域红外目标分割及特征点匹配的泡沫流速检测

施雯玲, 廖一鹏, 许志猛, 严欣, 朱坤华

施雯玲, 廖一鹏, 许志猛, 严欣, 朱坤华. 基于多尺度域红外目标分割及特征点匹配的泡沫流速检测[J]. 红外技术, 2023, 45(5): 463-473.
引用本文: 施雯玲, 廖一鹏, 许志猛, 严欣, 朱坤华. 基于多尺度域红外目标分割及特征点匹配的泡沫流速检测[J]. 红外技术, 2023, 45(5): 463-473.
SHI Wenling, LIAO Yipeng, XU Zhimeng, YAN Xin, ZHU Kunhua. Foam Flow Rate Detection Based on Infrared Target Segmentation and SURF Matching in NSST Domain[J]. Infrared Technology , 2023, 45(5): 463-473.
Citation: SHI Wenling, LIAO Yipeng, XU Zhimeng, YAN Xin, ZHU Kunhua. Foam Flow Rate Detection Based on Infrared Target Segmentation and SURF Matching in NSST Domain[J]. Infrared Technology , 2023, 45(5): 463-473.

基于多尺度域红外目标分割及特征点匹配的泡沫流速检测

基金项目: 

国家自然科学基金项目 61601126

国家自然科学基金项目 61904031

福建省自然科学基金项目 2019J01224

详细信息
    作者简介:

    施雯玲(1996-),女,硕士研究生,主要从事机器视觉方面的研究。E-mail:382935094@qq.com

    通讯作者:

    廖一鹏(1982-),男,博士,讲师,主要从事图像处理与机器视觉方面的研究。E-mail:fzu_lyp@163.com

  • 中图分类号: TP391

Foam Flow Rate Detection Based on Infrared Target Segmentation and SURF Matching in NSST Domain

  • 摘要: 为减少浮选气泡合并、破碎等变化对泡沫表面流动特征提取的影响,提出了一种非下采样剪切波变换(Nonsubsampled Shearlet Transform,NSST)域红外目标分割及改进加速鲁棒特征(Speeded Up Robust Features,SURF)匹配的泡沫表面流速检测方法。首先,对相邻两帧泡沫红外图像NSST分解,在多尺度域构建图割能量函数的边界、亮度、显著性约束项实现对合并、破碎气泡的分割;然后,对分割后的背景区域进行SURF特征点检测,通过统计扇形区域内的尺度相关系数确定特征点主方向,采用特征点邻域的多方向高频系数构造特征描述符;最后,对相邻两帧泡沫红外图像进行特征点匹配,根据匹配结果计算泡沫流速的大小、方向、加速度、无序度。实验结果表明,本文方法能有效分割出合并、破碎的气泡,具有较高的分割精度,提升了SURF算法的匹配精度,流速检测受气泡合并、破碎的影响小,检测精度和效率较现有方法有一定提升,能准确地表征不同工况下泡沫表面的流动特性, 为后续的工况识别奠定基础。
    Abstract: In order to reduce the influence of changes such as flotation bubble merging and breaking on the foam surface flow feature extraction, a foam surface flow rate detection method based on infrared target segmentation and improved SURF matching in NSST domain is proposed. First, two adjacent froth infrared images are decomposed through NSST, and boundary, brightness, and saliency constraint terms of the graph cut energy function are constructed in the multi-scale domain to realize the segmentation of the merged and broken bubbles. Then, SURF feature point detection are performed on the segmented background region. The main direction of the feature point is determined by statistical the scale correlation coefficients in the sector area, and the multi-directional high-frequency coefficients in the neighborhood of the feature point are used to construct the feature descriptors. Finally, feature points are matched for two adjacent froth infrared images, and the magnitude, direction, acceleration and disorder of foam flow velocity are calculated based on the matching results. The experimental results show that the method in this paper can effectively segment the merged and broken bubbles with high segmentation accuracy, improve the matching accuracy of SURF algorithm, reduce the impact of the bubbles merging and breaking on the flow velocity detection. Compared with the existing methods, the method in this paper improve the detection accuracy and efficiency, which can accurately characterize the flow characteristics of the foam surface under different working conditions and lay the foundation for the subsequent working condition identification.
  • 煤矿井下的视频监控系统[1]是对井下工作人员和设备等目标的位置和状态等信息分析的重要手段,但是由于煤矿井下的复杂环境,使获取到的图像存在对比度低、光照不均、边缘细节模糊等问题,造成分析图像出现困难[2]。因此,对煤矿井下采集到的图像使用增强方面的预处理等技术研究具有极为重要的意义[3]。目前主流的煤矿井下的图像增强方法主要分为基于模型和深度学习两大类。

    基于模型的方法分为直方图均衡化[4]和基于Retinex[5]理论两种方法。其中,基于直方图均衡化的方法[6]容易引起图像过增强和出现曝光现象。随着技术的不断发展,图像增强研究热点逐渐转移到基于Retinex理论的方法。基于Ritinex理论和光照图估计[7]的低光照增强图像方法[8]LIME(Low-light Image Enhancement via Illumination Map Estimation),先对光照图进行处理,最后将反射图的输出作为增强结果,但容易出现过增强的现象。NPE[9](Naturalness Preserved Enhancement)在增强图像对比度的同时保持了照明的自然度,但没有考虑不同场景中照明的关系。用于图像增强的多曝光融合框架BIMEF(Bio-Inspired Multi-Exposure Fusion)[10],采用双曝光融合方法,但结果亮度过低。RRM(Structure-Revealing Low-Light Image Enhancement Via Robust Retinex Model)[11]采用基于增广Lagrange乘子的ADM(Alternating direction methods)方法,对噪声进行预测,同时估计反射图和光照图进行图像增强,但增强结果不够清晰。基于去雾的方法[12]利用了雾天拍摄的图像与低光照图像之间的反向联系来达到图像增强的效果。

    随着深度学习的飞速发展,基于深度学习的网络已被广泛应用于图像处理中。Lore等人[13]使用堆叠稀疏去噪自动编码器(A Deep Autoencoder Approach to Natural Low-light Image Enhancement,LLNet)增强图像和对图像去噪。LLCNN(A convolutional neural network for low-light image enhancement)[14]是一种基于超分辨率模型VDSR(Very Deep-Super Resolution)和残差网络ResNet的双分支残差学习网络,但其多尺度特征融合能力不足。为了克服这些困难,Wei C.等人提出一种基于Retinex理论分解的方法,建立了一个将图像分解和图像增强相结合的深度神经网络[15],将原始图像分解为光照图和反射图,但忽略了红-绿-蓝色(Red-Green-Blue, RGB)空间的三个通道的相关性,结果出现严重失真。基于深度学习的方法[16-17]虽然有一定的有效性,但需要大量的数据集,同时网络的训练也需要复杂的设备支持,其运行时间也会随着网络的大小而增加。

    针对以上煤矿井下图像增强中存在的问题,提出一种基于图像的HSV空间[18],利用相对全变分(Relative Total Variation, RTV)滤波和改进的边窗滤波(Side Window Filtering, SWF)增强V通道图像并融合的方法,实现对图像的增强。该方法在不需要大量数据集支撑的前提下,能够有效解决低光照图像边缘细节模糊、细节丢失的现象,并且在保持图像原有的色彩的同时达到增强图像的亮度和对比度细节的效果。

    由于彩色图像的光照并不与RGB模型的三通道中某一单一的通道有明确的联系,而RGB模型的三通道互相影响,相对而言,HSV模型中的三通道相对独立,且场景中的光照对图像的亮度通道V通道影响较大,针对亮度做校正方便快捷且计算简单,故本文选用在HSV空间中完成对煤矿井下低光照图像进行亮度的矫正。

    方法的整体框架如图 1所示。首先将低光照图像分为色调通道H、饱和度通道S和亮度通道V三个通道,利用RTV与SWF,对提取出来的V通道图像分别进行主要结构提取和轮廓边缘保留,之后对其进行非线性灰度拉伸以增强其对比度,非线性灰度拉伸参考了S通道图像,更好保留了图像的原结构。利用新的融合技术PCA得到增强后的V通道图像,最后将新的V通道与之前分离出来的S通道和H通道融合并由HSV空间转换到RGB空间,最后输出增强后的图像。

    图  1  基于HSV空间的煤矿下低光照图像增强方法整体框架
    Figure  1.  Overall framework of low-light image enhancement method under coal mine based on HSV space

    1)主要结构提取

    主要结构采用结构约束优化方法提取,即相对全变分(RTV)[19]的方法,RTV采用像素加窗总变差度量项ϑ和窗口固有变化度量项ς构成目标函数正则项,xy分别表示ϑς水平和垂直方向度量值,定义如式(1)和式(2):

    $$\begin{aligned} & \vartheta_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \vartheta_y(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (1)
    $$\begin{aligned} & \varsigma_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \varsigma_{\mathrm{y}}(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (2)

    式中:R(p)是以像素p为中心的矩形区域;qR(p)区域内某一点像素;ϑx(p)和ϑy(p)分别表示p在像素的xy方向加窗的总变差,其可以计算窗口R(p)的绝对空间差异,∂x和∂yxy两个方向上的偏导数,S是所得到的结构图像;式(2)是为了更好地区分出结构和纹理元素,gp, q是根据空间相关性定义权重函数${g_{p,q}} \propto \exp (( - ({x_p} - {x_q}) + ({y_p} - {y_q}))/2{\sigma ^2})$,σ为尺度因子控制权重函数分布形状,为更好地在视觉显示区域加强纹理和机构之间的区分度,结合ϑς形成了一种有效的结构纹理分解正则化器,用于图像的结构化提取,RTV的目标函数如式(3):

    $$ {L_{{\text{RTV}}}} = \mathop {\min }\limits_t \sum\limits_p {({t_p} - {{\tilde t}_p})} + \lambda \cdot (\frac{{{\vartheta _x}(p)}}{{{\varsigma _x}(p) + \varepsilon }} + \frac{{{\vartheta _y}(p)}}{{{\varsigma _y}(p) + \varepsilon }}) $$ (3)

    式中:$\tilde{t}_p$是输入图像;tp是生成的结构图像;(tp-$\tilde{t}_p$)2是保真项,确保提取的结构与输入图像结构尽量一致;λ是平衡因子,图像去除纹理效果由正则项$ \left( {\frac{{{\vartheta _x}\left( p \right)}}{{\varsigma {}_x\left( p \right) + \varepsilon }} + \frac{{{\vartheta _y}\left( p \right)}}{{\varsigma {}_y\left( p \right) + \varepsilon }}} \right) $决定,ε取一个很小的正数,避免被零除。

    2)边缘细节保留

    对V通道的边缘细节保留使用改进的边窗滤波技术(SWF)[20],SWF具有显著的边缘保持能力,并在图像平滑与结构保留纹理去除、相互结构提取等应用中达到了最先进的性能。

    基于局部的过滤器通常是根据像素的邻域来估计其输出。被处理的像素位于操作窗口的中心,而操作窗口中的其他像素与他相邻。一种常见的基于线性近似的图像滤波操作假设图像是分段线性的,并将像素近似为局部窗口上相邻像素的加权平均值:

    $$I_i^{\prime}=\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j$$ (4)

    式中:Ωi为以像素i为中心的局部窗口(支撑域),其实就是局部窗口内的像素;ωij为权重,oiIi分别为输入图像q和输出图像I在位置i的强度。

    滤波器输出与原始图像之间的差异可以表述为以下代价函数:

    $$E_i=\left\|I_i-I_2^{\prime}\right\|_2^2=\left(I_i-\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j\right)^2$$ (5)

    利用泰勒展开,证明为了使用相邻像素的线性组合重建边缘像素,相邻像素必须来自边缘的一侧。SWF技术作为一种有效的保边滤波的方法,将每个目标像素视为一个潜在的边,并在其周围生成多个局部窗口,每个窗口都将目标像素与窗口的一个边或角对齐,SWF的输出是其中一个侧窗中的邻居的线性组合,可以最好地接近目标像素。

    侧窗的定义如图 2所示,参数θ为窗与水平线的夹角,参数r为窗的半径,p∈{0, r},(x, y)是目标像素i的位置,r是一个用户定义的参数,它对于所有的侧窗都是固定的。通过改变θ和固定(x, y),可以改变窗口的方向,同时使它的一侧与i对齐。R是窗口的半径,(a)是连续情况下侧窗的定义,(b)分为左(红色矩形)和后(蓝色矩形)侧窗,(c)分为上(红色矩形)和下(蓝色矩形)侧窗,(d)分为左上(红色矩形)、右上(蓝色矩形)、左下(绿色矩形)和右下(橙色矩形)侧窗。通过在每个边窗中应用滤波核F,可以得到8个输出:

    $$I_i^{\prime \theta, \rho, r}=F\left(q_i, \theta, \rho, r\right)$$ (6)
    图  2  SWF滤波8个方向的侧窗定义图
    Figure  2.  SWF filter side window 8 direction side window definition

    保持边缘意味着想要最小化输入和输出在边缘的距离,即滤波器的输出应该与输入在边缘相同或尽可能接近。因此,我们选择与输入强度L2距离最小的侧窗输出作为最终输出:

    $$I_{\mathrm{SWF}}^{\prime}=\underset{\forall I_i^{\prime \theta, \rho, r}}{\arg \min }\left\|q_i-I_i^{\prime \theta, \rho, r}\right\|_2^2$$ (7)

    图 3所示,第一行是从低光照图像中提取的V通道图。第二行是V通道使用RTV提取的主要结构图,可以有效提取出图像的主要结构,滤波整体结构良好,保存了V通道图像的主要结构特征,但在细节方面并未得到很好的区分,所以引入SWF技术,可以更好地区分纹理和细节。第三行是V通道经过SWF提取的边缘细节图,纹理边缘保持较好。采用特征值融合的方法,使两种滤波方法结合,保存图像整体结构良好的同时,精细结构能更加平滑,更好地区分纹理和结构。对比相应的增强图像可知,本文方法增强图像对比度更高,纹理细节及边缘保持相对更好一些。

    图  3  滤波结果图
    Figure  3.  Filter results

    3)主成分分析融合

    为了充分利用RTV提取图像的主要结构和SWF保持的图像边缘细节,采用基于主成分分析(Principal Component Analysis,PCA)融合方法进行V通道融合,PCA融合是经典空间域融合方法,该方法利用主成分分解可以保留原数据之特征信息这一特点,由两源图像获取协方差矩阵及其特征值和特征向量,据此确定图像融合方法的加权系数和最终的融合图像。首先,将二维图像转化为一维向量,并由一维向量构造数据矩阵X,然后,计算X的协方差矩阵的特征向量矩阵V和相应的特征值矩阵D,据此计算相应的加权系数,最后加权融合获得优化的传输图F

    将两幅图像转换为二维向量X,对其协方差矩阵C做特征值分解,获得2×2特征向量矩阵V和特征值矩阵D,其计算如式(8):

    $$\left\{\begin{array}{l} (\boldsymbol{V}, \boldsymbol{D})=\operatorname{Eig}(\boldsymbol{C}) \\ \boldsymbol{C}=\operatorname{Cov}(\boldsymbol{X}), \boldsymbol{X}=x_1, x_2^{\mathrm{T}} \end{array}\right.$$ (8)

    式中:Cov表示协方差计算;Eig表示特征值分解操作。之后根据式(9)和式(10)计算融合权重系数。

    $$V_1= \begin{cases}V(:, 1), & \text { if } D(1,1)>D(2,2) \\ V(:, 2), & \text { otherwise }\end{cases}$$ (9)

    式中:D(i, i)表示D的对角元素的第i个元素;V(: , i)表示V的第ii=1, 2,V1表示1维元素向量。

    $$W_i=\frac{V_1(i)}{V_1(0)+V_1(1)}, \quad i=0,1$$ (10)
    $$b=\sum\limits_{i=1}^2 W_i S_i$$ (11)

    式中:Wi为加权系数;b为融合结果分量;Si为待融合的主要结构传输图和精细结构传输图。将两种结构传输图优化融合,获得增强后的V通道图。

    根据图 1所示方法框架,基于HSV空间的矿井下低光照图像增强方法实施步骤为:

    1)获取低光照图像V通道图像V

    2)求解新的V通道图像V1V2

    对获得的V通道图像V进行RTV主要结构提取,并根据S通道图像的像素值对V通道图像进行非线性灰度拉伸,得到新的V通道图像V1;同时对V通道图像V进行SWF的边缘细节提取,进行相同的非线性灰度拉伸,得到V通道图像V2

    3)合成新的V通道分量

    利用PCA融合方法进行V通道分量合成,计算融合权重系数Wi,根据式(11)融合策略,得到新的V通道分量。

    实验开展分为2类,第1类是参数分析实验,调整参数值分析不同取值对方法影响;第2类是对比实验,将对煤矿井下低光照图像进行对比分析本文提出的方法与其他增强方法的增强性能差异,增强方法中传统方法包括Dong[12]、BIMEF[10]和LIME[6],实验在8GB RAM和Windows 10操作系统的笔记本电脑上运行,软件采用MATLAB2016a;深度学习方法包括基于Retinex-Net[14]、MBLLEN(Multi-Branch Low-light Enhancement Network)[21]和Zero-DCE[22],实验在Nvidia RTX3090 GPU工作站上运行。

    本文选择了常用的3种图像质量评价指标:峰值信噪比(Peak Signal to Noise Ratio, PSNR)[23]、结构相似性(Structual Similarity, SSIM)[24]和自然图像质量评估(Natural Image Quality Evaluator,NIQE)[25]作为增强后图像的评价指标。

    1)峰值信噪比(PSNR)

    峰值信噪比用来评价两幅图像相对质量的好坏,其值越高,说明增强后的图像失真越小,质量越好。对于大小为m×n的两幅图像IO(原图和增强后的结果图像),其均方差MSE(Mean Square Error)定义为:

    $$\mathrm{MSE}=\frac{1}{m n} \sum\limits_{i=0}^{m-1} \sum\limits_{j=0}^{n-1}[I(i, j)-O(i, j)]^2$$ (12)

    则PSNR(dB)定义为:

    $$\mathrm{PSNR}=10 \cdot \lg \left(\frac{\mathrm{MAX}_I^2}{\mathrm{MSE}}\right)=20 \cdot \lg \left(\frac{\mathrm{MAX}_I}{\sqrt{\mathrm{MSE}}}\right)$$ (13)

    式中:MAX为像素最大值。

    2)结构相似性(SSIM)

    图像的结构相似性(SSIM)可以衡量两个图像的相似程度,SSIM值的大小表示更符合人眼的直观感受。

    SSIM指标的计算表达式,如式(17)所示:

    $$\operatorname{SSIM}(I, O)=\left[l(I, O)^\alpha \cdot c(I, O)^\beta \cdot s(I, O)^\gamma\right]$$ (14)

    IO分别是原图和增强结果图,将αβγ设为1,可以得到:

    $$\operatorname{SSIM}(I, O)=\frac{\left(2 \mu_I \mu_O+c_1\right)\left(2 \sigma_{I O}+c_2\right)}{\left(\mu_I^2+\mu_O^2+c_1\right)\left(\sigma_I^2+\sigma_O^2+c_2\right)}$$ (15)

    式中:μIμOσI2σO2分别为IO的均值与方差,σIOIO的协方差,c1c2为常数,避免除数为零。图像的SSIM值越大,说明两幅图像的相似度越高,也就说明增强后的图像越接近真实图像。

    3)自然图像质量评估(NIQE)

    图像的自然图像质量评估值根据测试图像在特定高斯模型(multivariate Gaussian, MVG)上的分布差异对图像的质量进行评估,通过计算测试图像与参考图像拟合参数之间的距离来衡量图像质量。第一步,将提取的36个特征采用拟合MVG模型利用最大似然估计法计算得到参数vΣ。之后再提取失真图像统计特征,进行模型拟合得到(v′, Σ ′),具体的计算公式如下:

    $$D\left(v_1, v_2, \mathit{\Sigma }_1, \mathit{\Sigma }_2\right)=\sqrt{\left(v_1-v_2\right)^{\mathrm{T}}\left(\frac{\mathit{\Sigma }_1+\mathit{\Sigma }_2}{2}\right)^{-1}\left(v_1-v_2\right)}$$ (16)

    式中:v1v2表示参考图像和测试图像的MVG模型均值;Σ1Σ2表示参考图像和测试图像的MVG模型方差矩阵。当测试图像与参考图像差距较大时,NIQE的值越大,图像质量越差。

    1)非线性灰度拉伸的参数α取值分析

    为分析非线性灰度拉伸的α取值对增强方法的影响,选用不同测试图像实验,其中测试图像S1616,S1613和S881,在不同α取值{0.3, 0.5, 0.8, 1, 1.2}的实验结果,如图 4所示。

    图  4  不同图像α值的增强结果
    Figure  4.  Enhancement results for different image α

    图 4中,第一行、第三行、第五行分别是测试图像增强后的V通道图像V′,第二行、第四行、第六行分别是最终的增强图像。从图 4可以看出,随着α取值逐渐增大,增强后的图像亮度越来越暗,当α取值偏小时,增强图像整体偏亮,在原图灯光处出现过度曝光,在α取值为0.8时才逐渐消失,但依旧过亮。而当α取值为1.2时,增强图像偏暗,色彩不鲜明,细节不清晰。当α取值为1时,增强图像的细节、整体色彩都比较好,图像整体最自然逼真,故设置方法中的α取值为1。

    2)方法性能对比分析

    为验证本文方法的有效性,将其与其他6种方法进行性能比较,比较方法中传统方法包括:基于去雾方法的低光照图像增强模型Dong[12]、基于融合模型的方法BIMEF[9]和基于Retinex模型的方法LIME[6];深度学习方法包括:Retinex-Net[15]、MBLLEN [21]和Zero-DCE[22]。由主观视觉与客观指标两个方面评价7种方法增强图像质量,对比分析本文提出方法的性能与适用性。

    为保证对比方法的性能,在保留原方法参数设置基础上开展对比实验,对比方法来源于作者网站下载的代码。图 5展示了7种方法的部分对比实验结果,如图 5中,从左到右、从上到下依次对应输入的矿井下低光照图像,Dong、BIMEF、LIME、Retinex-Net、MBLLEN、Zero-DCE和本文方法对应的增强图像。

    图  5  煤矿井下低光照图像增强效果
    Figure  5.  Enhancement effect of low light image in coal mine underground

    视觉分析图 5(a)可以看出,增强图像为S102时,本文方法增强的结果亮度改善最为明显,图像较为清晰,并且增强图像的整体色调和细节恢复程度最佳,Dong和Retinex-Net方法出现明显的失真;BIMEF和MBLLEN增强后的图像亮度增强效果不明显,在细节和角落处出现对比度增强不足的问题;而LIME方法相对来说效果较好,但在图像细节增强处略微出现不足;Zero-DCE出现整体图像颜色过曝光,失去原有图像真实色调。图 5(b)可以看出,增强图像为S106时,传统方法中,LIME相较于Dong和BIMEF增强效果表现较好,但它在墙壁处和地板处增强了噪声,导致图像整体视觉较差,Dong增强后的图像在灯光等较亮处出现了部分失真现象,BIMEF整体图像亮度增强不足,丢失图像部分细节;在深度学习方法中,Retinex-Net增强后,整张图像出现了较为严重的颜色失真,MBLLEN同样出现亮度增强不足的问题,Zero-DCE方法增强后,灯光处的明亮区域被过度增强。分析图 5(c)知,增强图像为S6351时,LIME相对其他方法视觉效果表现较好,但它增强过后灯光处出现过度增强,导致图像上方出现颜色失真,Dong和Retinex-Net方法增强后出现较为严重的颜色失真,丢失原图细节信息,BIMEF和MBLLEN相较于本文提出方法图像增强不足,原图中的黑暗部分并未得到很好的增强,Zero-DCE方法在S6351中的灯光处出现过度曝光,而本文方法增强后的图像总体来说较为清晰,并且增强后的图像整体色调和细节恢复程度较为理想。

    图 6可以直观地看出,本文方法在图 5测试图像的NIQE值数值最低,表明其增强后图像最自然,亮度及色调恢复得最好。

    图  6  煤矿井下低光照图像的NIQE值折线图
    Figure  6.  The NIQE value line of low light images in coal mine underground

    图 7展示了煤矿下数据集(Mine-data)中的部分测试图像的各个方法的增强结果。从图 7中可以看出各个方法在矿井下测试图像增强中出现的问题,在煤矿数据集(Mine-data)中同样存在,由于Mine-data中有对应的正常光照下的图像进行参考,所以可以计算出它们的PSNR和SSIM值,并使用竖状图的形式列出,如图 8所示,可以更加清晰地看出,在Mine-data的测试图像T812、T865、T1628和T1683中,本文提出的方法在PSNR和SSIM值上都表现优秀。

    图  7  煤矿数据集(Mine-data)部分图像增强效果
    Figure  7.  Partial image enhancement effect of mine-data
    图  8  Mine-data测试图像各方法增强结果的PSNR和SSIM
    Figure  8.  PSNR and SSIM of the enhancement results of various methods for Mine-data test images

    为了防止抽取图像的随机性和偶然性,又对煤矿数据集(Mine-data)中所有图像进行测试,并将它们的PSNR、SSIM和NIQE均值在表 1中列出,表中加粗字体为该组数据的最优值(PSNR、SSIM越高越好,NIQE越低越好),蓝色字体为其次。从表 1可以明显看出本文提出的方法在Mine-data中的低光照图像的PSNR值和SSIM值的都最大,位居第一,并且NIQE值也最小,同样是位居第一。综合分析,本文提出的方法在煤矿数据集(Mine-data)上表现良好,无论是从视觉效果上还是指标分析上都表现出较大的优势,从而证实了此方法的适应性、可行性和优越性。

    表  1  Mine-data矿井下图像质量指标数据比较
    Table  1.  Comparison of mine-data image quality index data in underground mines
    Metrics Dong BIMEF LIME Retinex-Net MBLLEN Zero-DCE Ours
    PSNR↑ 19.84 14.73 13.31 18.38 20.25 20.55 20.73
    SSIM↑ 0.76 0.42 0.43 0.77 0.76 0.88 0.91
    NIQE↓ 4.06 3.78 3.65 4.42 4.87 3.84 3.57
    Note:Bold data is optimal. Blue data is suboptimal.
    下载: 导出CSV 
    | 显示表格

    针对煤矿井下的特殊低光照环境,本文提出了一种基于HSV空间的煤矿井下低光照图像增强方法,该方法在HSV空间变换的条件下,利用相对全变分滤波和改进的边窗滤波对提取出的亮度通道V通道图像分别进行对比度增强处理并使用PCA技术进行融合,相对全变分滤波提取出V通道图像的主要结构,改进的边窗滤波对V通道图像进行轮廓边缘保留,使之最后的增强结果既保持了图像原有的细节和边缘轮廓,又能提高图像整体的亮度和对比度。最后将图像的三通道图像合成并由HSV空间转换到RGB空间,完成整体图像增强。实验表现,本文方法与6种先进的增强方法相比,增强煤矿下低光照图像时,无论是主观视觉还是客观指标都具有一定的优势,其更加适合煤矿井下低光照图像的增强。

  • 图  1   气泡图像多尺度变换

    Figure  1.   Multiscale transform of bubble images

    图  2   浮选泡沫的红外热像

    Figure  2.   Infrared images of flotation foam

    图  3   特征主方向确定

    Figure  3.   Feature main direction determination

    图  4   构建特征描述符

    Figure  4.   Constructing feature descriptors

    图  5   泡沫流动速度检测流程

    Figure  5.   Foam flow rate detection flow chart

    图  6   目标分割结果及对比

    Figure  6.   Target segmentation results and comparison

    图  7   改进SURF的匹配结果及比较

    Figure  7.   Improved SURF algorithm matching results and comparison

    图  8   流速检测效果及比较

    Figure  8.   Flow rate detection effect and comparison

    图  9   不同加药状态下的流速检测结果

    Figure  9.   Flow rate detection results under different dosing conditions

    表  1   四种方法分割性能比较

    Table  1   Comparison of the performance of four methods of segmentation

    Algorithm Under-flotation Normal flotation Over-flotation Running time/s
    IOU Error IOU Error IOU Error
    Ref.[14] 0.7957 0.2799 0.8316 0.2239 0.8682 0.1727 0.4017
    Ref.[18] 0.8251 0.2087 0.8174 0.2185 0.8876 0.1624 0.2240
    Ref.[19] 0.8188 0.2745 0.8541 0.2523 0.8871 0.1361 0.3119
    Ours 0.8357 0.2054 0.8547 0.1847 0.9014 0.1523 0.7301
    下载: 导出CSV

    表  2   匹配精度及运行时间比较

    Table  2   Comparison of matching accuracy and running time

    Algorithm Noise variance 10% Scale 1:2
    Matching accuracy/% Time/s Matching accuracy/% Time/s
    Improved SIFT 95.91 0.9625 98.72 0.9041
    Improved SURF 93.76 0.2604 96.24 0.1943
    Ours 96.12 0.3128 98.64 0.2612
    Algorithm Noise variance 30% Scale 1:8
    Matching accuracy/% Time/s Matching accuracy/% Time/s
    Improved SIFT 82.23 1.1254 81.25 0.8547
    Improved SURF 78.54 0.2321 75.68 0.1269
    Ours 87.12 0.3513 85.03 0.2098
    下载: 导出CSV

    表  3   流速检测结果及比较

    Table  3   Flow rate detection effect and comparison

    Algorithm vx/(pixel⋅s-1) vy/(pixel⋅s-1) V/(pixel⋅s-1) θv Ev/% Eθ/% Time/s
    Ref. [6] 15.5132 14.9353 21.5342 43.9127 1.5132 2.4162 0.3413
    Ref. [7] 15.0139 14.8926 21.1473 44.7676 0.3107 0.5164 0.5451
    Ref. [8] 14.9860 14.9577 21.1734 44.9458 0.1876 0.1204 1.5220
    Ref. [9] 14.9877 15.0659 21.2512 45.1491 0.1791 0.3313 0.6011
    Ours 14.9943 15.0064 21.2137 45.0231 0.0023 0.0513 1.0743
    下载: 导出CSV
  • [1]

    Fonseca R R, Franco I C, Thompson J P, et al. Turbidity control on dissolved air flotation process using fuzzy logic[J]. Water Science and Technology, 2018, 78(12): 2586-2596. DOI: 10.2166/wst.2019.015

    [2]

    XIE Y, WU J, XU D, et al. Reagent addition control for stibium rougher flotation based on sensitive froth image features[J]. IEEE Transactions on Industrial Electronics, 2016, 64(5): 4199-4206. http://www.onacademic.com/detail/journal_1000039773149010_f4aa.html

    [3]

    TAN J, LIANG L, PENG Y, et al. The concentrate ash content analysis of coal flotation based on froth images[J]. Minerals Engineering, 2016, 92: 9-20. DOI: 10.1016/j.mineng.2016.02.006

    [4]

    ZHANG J, TANG Z, LIU J, et al. Recognition of flotation working conditions through froth image statistical modeling for performance monitoring[J]. Minerals Engineering, 2016, 86: 116-129. DOI: 10.1016/j.mineng.2015.12.008

    [5] 陈良琴, 王卫星. 基于气泡跟踪与相位相关的浮选表面气泡平移运动估计[J]. 四川大学学报: 工程科学版, 2016, 48(5): 143-152. https://www.cnki.com.cn/Article/CJFDTOTAL-SCLH201605020.htm

    CHEN L Q, WANG W X. Flotation surface bubble displacement motion estimation based on bubble tracking and phase correlation[J]. Journal of Sichuan University: Engineering Science Edition, 2016, 48(5): 143-152. https://www.cnki.com.cn/Article/CJFDTOTAL-SCLH201605020.htm

    [6]

    Kaartinen J, Hätönen J, Hyötyniemi H, et al. Machine-vision-based control of zinc flotation—a case study[J]. Control Engineering Practice, 2006, 14(12): 1455-1466. DOI: 10.1016/j.conengprac.2005.12.004

    [7]

    Nakhaei F, Irannajad M, Mohammadnejad S. Column flotation performance prediction: PCA, ANN and image analysis-based approaches[J]. Physicochemical Problems of Mineral Processing, 2019, 55(5): 1298-1310. http://www.xueshufan.com/publication/2974543226

    [8]

    WANG Y, SUN B, ZHANG R, et al. Sulfur flotation performance recognition based on hierarchical classification of local dynamic and static froth features[J]. IEEE Access, 2018, 6: 14019-14029. DOI: 10.1109/ACCESS.2018.2805265

    [9] 廖一鹏, 陈诗媛, 杨洁洁. NSST域改进ORB的泡沫流动特征提取及加药状态识别. [J]. 光学精密工程, 2020, 28(12): 2684-2699. DOI: 10.37188/OPE.20202812.2684

    LIAO Y P, CHEN S Y, YANG J J, et al. Dosing status identification and froth flow feature extraction based on improved ORB in NSST domain[J]. Optics and Precision Engineering, 2020, 28(12): 2684-2699. DOI: 10.37188/OPE.20202812.2684

    [10]

    BAY H, TUYTELAARS T, VAN GOOL L. Surf: Speeded up robust features[C]//European Conference on Computer Vision, 2006: 404-417.

    [11]

    SINGH S, ANAND R S, GUPTA D. CT and MR image information fusion scheme using a cascaded framework in ripplet and NSST domain[J]. IET Image Processing, 2018, 12(5): 696-707. DOI: 10.1049/iet-ipr.2017.0214

    [12] 廖一鹏, 王卫星, 付华栋, 等. 结合分数阶微分的浮选泡沫图像NSCT多尺度增强[J]. 华南理工大学学报: 自然科学版, 2018, 46(3): 92-102. DOI: 10.3969/j.issn.1000-565X.2018.03.014

    LIAO Y P, WANG W X, FU H D, et al. Flotation foam image NSCT multi-scale enhancement with fractional differential[J]. Journal of South China University of Technology: Natural Science Edition, 2018, 46(3): 92-102. DOI: 10.3969/j.issn.1000-565X.2018.03.014

    [13]

    PENG Z, QU S, LI Q. Interactive image segmentation using geodesic appearance overlap graph cut[J]. Signal Processing: Image Communication, 2019, 78: 159-170. DOI: 10.1016/j.image.2019.06.012

    [14] 廖苗, 刘毅志, 欧阳军林, 等. 基于非线性增强和图割的CT序列肝脏肿瘤自动分割[J]. 计算机辅助设计与图形学学报, 2019, 31(6): 1030-1038. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201906019.htm

    LIAO M, LIU Y Z, OUYANG J L, et al. Automatic segmentation of liver tumor in CT volumes using nonlinear enhancement and graph cuts [J]. Journal of Computer-Aided Design & Computer Graphics, 2019, 31(6): 1030-1038. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201906019.htm

    [15] 林剑萍, 廖一鹏. 结合分数阶显著性检测及量子烟花算法的NSST域图像融合[J]. 光学精密工程, 2021, 29(6): 1406-1419. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202106021.htm

    LIN J P, LIAO Y P. A novel image fusion method with fractional saliency detection and QFWA in NSST[J]. Optics and Precision Engineering, 2021, 29(6): 1406-1419. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202106021.htm

    [16] 袁丽英, 刘佳, 王飞越. 基于SURF的图像配准改进算法[J]. 探测与控制学报, 2020, 42(2): 65-70. https://www.cnki.com.cn/Article/CJFDTOTAL-XDYX202002014.htm

    YUAN L Y, LIU J, WANG F Y. An improved algorithm of SURF image registration[J]. Journal of Detection & Control, 2020, 42(2): 65-70. https://www.cnki.com.cn/Article/CJFDTOTAL-XDYX202002014.htm

    [17]

    SONG J L, YANG J H, LIU F J, et al. High temperature strain measurement method by combining digital image correlation of laser speckle and improved RANSAC smoothing algorithm[J]. Optics and Lasers in Engineering, 2018, 111: 8-18. DOI: 10.1016/j.optlaseng.2018.07.012

    [18] 邵磊, 张一鸣, 李季, 等. 基于改进的两维Otsu管道红外图像高温区域分割研究[J]. 光谱学与光谱分析, 2019, 39(5): 1637-1642. https://www.cnki.com.cn/Article/CJFDTOTAL-GUAN201905055.htm

    SHAO L, ZHANG Y M, LI J, et al. Research on high temperature region segmentation of infrared pipeline image based on improved two-dimensional-Otsu[J]. Spectroscopy and Spectral Analysis, 2019, 39(5): 1637-1642. https://www.cnki.com.cn/Article/CJFDTOTAL-GUAN201905055.htm

    [19]

    BI H, TANG H, YANG G Y, et al. Accurate image segmentation using Gaussian mixture model with saliency map[J]. Pattern Analysis and Applications, 2018, 21(3): 869-878. DOI: 10.1007/s10044-017-0672-1

    [20] 牛燕雄, 陈梦琪, 张贺. 基于尺度不变特征变换的快速景象匹配方法[J]. 电子与信息学报, 2019, 41(3): 626-631. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201903017.htm

    NIU Y X, CHEN M Q, ZHANG H. Fast scene matching method based on scale invariant feature transform[J]. Journal of Electronics & Information Technology, 2019, 41(3): 626-631. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201903017.htm

    [21] 罗久飞, 邱广, 张毅, 等. 基于自适应双阈值的SURF双目视觉匹配算法研究[J]. 仪器仪表学报, 2020, 41(3): 240-247. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202003026.htm

    LUO J F, QIU G, ZHANG Y, et al. Research on speeded up robust feature binocular vision matching algorithm based on adaptive double threshold[J]. Chinese Journal of Scientific Instrument, 2020, 41(3): 240-247. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202003026.htm

图(9)  /  表(3)
计量
  • 文章访问数:  137
  • HTML全文浏览量:  30
  • PDF下载量:  32
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-05-26
  • 修回日期:  2022-06-23
  • 刊出日期:  2023-05-19

目录

/

返回文章
返回