Time-of-Flight Point Cloud Denoising Method Based on Confidence Level
-
摘要: 飞行时间(Time-of-Flight,ToF)三维成像方法由于多路径干扰和混合像素等问题降低了目标物体深度测量的精度。传统的方法通过优化重构异常点云数据或滤除噪声点云数据来提高目标的准确性,但是这些方法复杂度高且容易导致过度平滑。三维点云图像中的有效点云与噪声点云之间的关系很难用数学模型来表示。针对上述问题,本文提出了一种基于置信度的飞行时间点云去噪方法。首先,分析多帧点云数据的概率相关性,以点云数据的置信度作为判别有效点云与噪声点云的依据;其次,利用多帧点云之间的矢量对偶性,提出了一种快速提取不同置信度点云的算法,其时间复杂度为O(L);最后使用该算法提取多帧三维图像中置信度高的点云数据获得目标物体的真实测量数据,并重点对4组不同场景的点云数据进行对比实验。实验结果表明,该算法能够在有效滤除噪声的同时,显著提高目标物体的距离测量精度,增强目标物体的特征,因此具有广泛的应用价值。Abstract: The time-of-flight (ToF) 3D imaging method suffers from reduced precision in the depth measurement of target objects because of multipath interference and mixed pixels. Traditional methods improve the accuracy of the measurement by optimizing and reconstructing abnormal point cloud data or filtering noisy point cloud data. However, these methods are complex and can easily lead to excessive smoothing. The relationship between a valid point cloud and noisy point cloud in a 3D point cloud image is difficult to express using a mathematical model. To address these problems, a point cloud denoising method based on the confidence level is proposed in this paper. First, the probability correlation of multi-frame point cloud data is analyzed, and the confidence level of the point cloud data is used as the basis to distinguish valid point clouds from noisy point clouds. Second, by utilizing the vector duality between multi-frame point clouds, a fast algorithm for extracting point clouds with different confidence levels is presented, and its time complexity is O(L). Finally, the algorithm is used to extract the point cloud data with a high confidence level in multi-frame 3D images to obtain the real measurement data of the target object. We focus on the comparative experiments of four groups of point cloud data in different scenes. The experimental results show that the algorithm can not only effectively filter the noise but also significantly improve the distance measurement accuracy of the target object and enhance the characteristics of the target object; therefore, it has extensive application value.
-
Keywords:
- ToF /
- point cloud denoising /
- confidence level
-
0. 引言
红外图像的目标信息突出,但通常其对比度和空间分辨率低,且严重缺失细节;可见光图像通常对比度和空间分辨率较高,细节信息丰富,但易受外界环境的干扰[1]。通过红外与可见光图像融合技术,可以有效地综合红外与可见光图像各自的优势信息,形成一幅目标更突出、细节信息更丰富的融合图像[2]。当前,红外与可见光图像融合技术已被广泛应用在目标跟踪、红外探测、军事以及民用等领域[3]。
当前,基于多尺度变换的图像融合算法是图像融合算法中研究最为广泛的一类,即使用某种多尺度变换工具将源图像分解为低频和高频部分,然后分别对低频和高频部分进行融合[2]。相应地,多种多尺度变换工具已相继被研究学者们提出,如小波变换、曲波变换(Curvelet Transform, CVT)、非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)以及剪切波变换(Sheartlet Transform, ST)等[4]。NSST是被学者们近期提出的一种多尺度变换工具,它避免了ST的下采样操作,从而具备平移不变性,还消除了NSCT的较高计算复杂度,同时NSST具备较优的多分辨率性及各向异性等特点,可以较优地应用于红外与可见光图像融合领域当中[5-6]。
近些年来,多种基于多尺度变换的红外与可见光图像融合算法仍存在着目标不够突出、纹理细节丢失等现象。如王聪等[7]提出的一种基于脉冲发放皮层模型(Spiking Cortical Model, SCM)和复剪切波变换的融合算法,其融合图像纹理细节较丰富,但红外目标不够突出,同时红外目标周围还存在着伪影现象。邓立暖等[6]提出的一种基于NSST的融合算法,通过NSST分解源图像,然后利用显著图和改进的区域对比度分别来指导低频和高频部分进行融合,其融合图像红外目标较为突出,但存在着不属于源图像的结构信息,且有部分区域污染。Tan等[8]提出的一种基于多级高斯曲率滤波(Multi-Level Gaussian Curvature Filtering, MLGCF)图像分解的融合算法,其融合图像对比度适中,纹理细节较丰富,但存在着红外目标不够突出且偏暗的现象。冯贺等[9]提出的一种结合拉普拉斯分解和与亮度调节的融合算法,其融合图像整体偏暗、虽然红外目标较突出,但丢失了部分纹理细节。
为了较好地克服上述图像融合算法存在的缺陷,本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。首先,通过NSST将红外与可见光图像分解为低频和高频部分;其次,本文结合NSL(New Sum of Laplacian)和高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合;同时,本文对SCM进行改进,由单通道改为双通道,外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整,形成ADCSCM来指导高频部分进行融合;最后,利用NSST逆变换对融合后的低频和高频部分进行重构,获取融合图像。
1. 基础理论
1.1 非下采样剪切波变换
由Guo等[10]提出的ST具备良好的局部性、方向敏感性等特点,NSST是ST的改进版本,在继承ST的优点外,还避免了ST的下采样操作,具备了ST没有的平移不变性,因此NSST能够克服图像边缘处的伪吉布斯现象。
NSST的分解过程主要为多尺度分解与方向局部化两部分[11]。使用非下采样金字塔滤波器组(Non-Subsampled Pyramid, NSP)对源图像进行多级分解,进而实现多尺度分解。k级分解后将产生1个低频子带和k个高频子带,它们与源图像的尺寸一致;使用剪切滤波器(Shearlet Filter, SF)对某一尺度下的高频子带进行多级分解,形成多个不同方向上的高频子带,实现方向局部化。l级分解后将产生2l个高频方向子带,它们与源图像尺寸一致。通过上述的NSP和SF分解,能够保证NSST的各向异性和平移不变性。此外,NSST还具有良好的稀疏表示性能与低计算成本等特点,属于一种有效的多尺度变换工具。
1.2 自适应双通道脉冲发放皮层模型
SCM由Zhan等[12]在2009年首次提出,它源于Eckhorn神经网络模型,属于一种改进的脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)模型。SCM除了具备PCNN的全局耦合性、同步脉冲性等特点外,还有参数少、计算效率高、结构简单的特点。当前,SCM在图像分割及图像融合等领域均具有明显的优势[13]。
由于SCM存在着对图像中暗部区域细节提取能力较弱的缺陷,本文在传统SCM基础上,提出了一种自适应双通道脉冲发放皮层模型,该模型能够有效地提高对图像中暗部区域细节的提取能力。此外,ADCSCM中同时输入两幅图像的外部输入激励,进而加快图像融合的速度。本文提出的ADCSCM中神经元结构如图 1所示。
ADCSCM相对应的数学表达式如下:
$$ U_{i j}^{1}(n)=S_{i j}^{1} \cdot \beta_{i j}^{1} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{1} $$ (1) $$ U_{i j}^{2}(n)=S_{i j}^{2} \cdot \beta_{i j}^{2} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{2} $$ (2) $$ U_{i j}(n)=\max \left\{U_{i j}^{1}(n), U_{i j}^{2}(n)\right\} $$ (3) $$ E_{i j}(n)=g E_{i j}(n-1)+h Y_{i j}(n-1) $$ (4) $$ X_{i j}(n)=\frac{1}{1+\exp \left[-\left(U_{i j}(n)-E_{i j}(n)\right)\right]} $$ (5) $$ Y_{i j}(n)=\left\{\begin{array}{ll} 1 & X_{i j}(n)>0.5 \\ 0 & {\rm { otherwise }} \end{array}\right. $$ (6) 式(1)~(6)中:(i, j)为神经元位置;n为迭代次数;上标1、2分别表示通道1、通道2;Sij为神经元的外部输入激励;Uij为神经元的内部活动项;Eij为动态阈值;Wijkl为神经元间的链接权重矩阵;βij为神经元的链接强度;(k, l)为神经元的周围连接;g为阈值衰减系数;h为阈值放大系数;Xij为神经元的幅度输出,采用sigmoid函数形式输出表示,能够突出幅度差异;Yij为神经元的脉冲输出,当Yij为1时,表示神经元成功点火;反之,当Yij为0时,表示神经元未成功点火。
2. 本文图像融合算法
2.1 融合流程
本文结合多尺度变换工具NSST、高斯模糊逻辑以及ADCSCM特性等,提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法,融合流程图由图 2所示,对应的融合具体步骤分为以下4步:
步骤1:使用NSST将已配准的红外图像A与可见光图像B分解为低频部分{DLA(i, j), DHA(i, j)}和高频部分{DLB(i, j), DHB(i, j)};
步骤2:结合NSL与高斯模糊逻辑,并设定双阈值来指导低频部分DLA(i, j)、DLB(i, j)进行融合,获取融合后的低频部分DLF(i, j);
步骤3:同时采用基于ADCSCM的融合规则来指导高频部分DHA(i, j)、DHB(i, j)进行融合,获取融合后的高频部分DHF(i, j);
步骤4:最后,通过NSST逆变换对DLF(i, j)、DHF(i, j)进行重构,获取融合图像F。
2.2 低频部分融合规则
低频部分主要是源图像的基本信息,反映着图像的主要轮廓。传统的低频部分融合规则如取平均法、简单加权法等容易丢失源图像的细节,导致融合的效果一般。为了克服传统低频部分融合规则的缺陷,本文提出结合NSL与高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合。
拉普拉斯能量和在表明图像的能量信息时,还能反映出图像的边缘特性[14]。但传统拉普拉斯能量和仅计算了像素点的垂直和水平方向的拉普拉斯算子,未考虑对角方向的拉普拉斯算子,从而丢失了部分图像细节。在此基础上,本文增加了主对角和副对角的拉普拉斯算子值,形成NSL[14]。NSL定义为:
$$ \begin{array}{l} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i, j)=\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j)-D_{{\mathrm{L}}}^{I}(i+1, j)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i, j-1)-D_{{\mathrm{L}}}^{I}(i, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j-1)-D_{{\mathrm{L}}}^{I}(i+1, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j+1)-D_{{\mathrm{L}}}^{I}(i+1, j-1)\right| \end{array} $$ (7) $$ {\mathrm{NSL}}_{{\mathrm{L}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i+x, j+y) $$ (8) 式(7)~(8)中:DLI(i, j)上标I可取A、B,表示红外图像或可见光图像低频部分;NLLI(i, j)为新拉普拉斯算子;M和N为区域窗口测度,表示区域窗口大小为(2M+1)×(2N+1),本文取3×3,即M=N=1。
则基于NSL的权重因子定义如下:
$$ \left\{\begin{array}{l} \omega_{1}=\frac{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\alpha_{0} \cdot {\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)} \\ \omega_{2}=1-\omega_{1} \end{array}\right. $$ (9) 式中:α0为权重调节参数,本文参考文献[15],相应取α0=3。ω1为红外权重因子,ω2为可见光权重因子。
同时,红外图像的直方图呈现高斯分布,与高斯模糊逻辑的特性相似。侧面表明高斯模糊逻辑的隶属度可以较优地描述红外图像的目标和背景信息[16]。则红外低频部分的背景隶属度ωB和目标隶属度ωT由高斯函数确定,分别定义如下:
$$ \left\{\begin{array}{l} \omega_{{\mathrm{B}}}(i, j)=\exp \left[\frac{\left(D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)-\mu\right)^{2}}{-2 \cdot\left(k_{0} \sigma\right)^{2}}\right] \\ \omega_{{\mathrm{T}}}(i, j)=1-\omega_{{\mathrm{B}}}(i, j) \end{array}\right. $$ (10) 式中:μ为红外低频部分的均值;σ为红外低频部分的标准差;k0为自适应调节参数,取值范围一般为1~3,本文取k0=2。
将红外低频部分的背景隶属度、目标隶属度与ω1、ω2相结合,形成修正的红外权重因子λ1和可见光权重因子λ2用于融合低频部分,λ1、λ2分别定义如下:
$$ \left\{ {\begin{array}{*{20}{l}} {{\lambda _1}(i, j) = \frac{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j)}}{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j) + {\omega _{\rm{B}}}(i, j){\omega _{\rm{2}}}(i, j)}}} \\ {{\lambda _2}(i, j) = 1 - {\lambda _1}(i, j)} \end{array}} \right. $$ (11) 其次,区域能量反映着图像中像素点的局部变化强度,可以较好地表现出红外与可见光图像各自的信息特征。图像低频部分区域能量RE定义为:
$$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{I}}}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\boldsymbol{w}}_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{L}}}^{{\mathrm{I}}}(i+x, j+y)\right]^{2} \end{array} $$ (12) 式中:w0为窗口掩膜矩阵,越靠近中心点表明其权值相对越大,本文取${\boldsymbol{w}}_{0}=\frac{1}{16}\left[\begin{array}{l} 1 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 1 \end{array}\right]$。
基于上述的区域能量,设定双阈值T1、T2与其结合,进而判断融合图像低频部分中的某像素点属于明显的红外图像或可见光图像特征信息。具体表述为:
记${\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)=\frac{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)}$,若RELX(i, j)大于T1,表明该像素点属于较明显的红外信息,则其低频融合系数等价于红外图像低频系数;相应地,若RELX(i, j)小于T2,表明该像素点属于较明显的可见光信息,则其低频融合系数等价于可见光图像低频系数。其中,T1、T2为不同的常数,且需保证T1>1>T2,在经过多次融合实验后,当T1、T2分别取T1=12、T2=0.75时,本文融合算法具有较优的融合效果。
因此,低频部分融合系数DLF(i, j)可以表示为:
$$ D_{{\mathrm{L}}}^{{\mathrm{F}}}(i, j)=\left\{\begin{array}{l} D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)>T_{1} \\ D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)<T_{2} \\ \lambda_{1}(i, j) D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\lambda_{2}(i, j) D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \text { otherwise } \end{array}\right. $$ (13) 2.3 高频部分融合规则
高频部分主要是源图像的细节,反映着图像的突变特性。常见的融合规则如区域能量取大、绝对值取大规则等虽然简单高效,但忽略了图像像素间的相关性,容易导致融合图像纹理细节或边缘信息的丢失,造成图像扭曲[17]。SCM是PCNN模型的简化版本,具有全局耦合性、同步脉冲性和计算量小等优势,能够较好地突出图像的细节部分。为了保留源图像的细节,本文提出基于ADCSCM的融合规则来指导高频部分进行融合,其外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整。ADCSCM在继承SCM的优点外,还能够弥补SCM对图像暗部区域细节提取能力较弱的缺陷,反映出图像的突变特性、加快图像融合的速度。
在ADCSCM中,记外部输入激励为Sijm,链接强度为βijm,其中上标m=1, 2,表示为通道1、通道2,其中通道1与红外图像A高频部分相对应,通道2与可见光图像B高频部分相对应。
由ADCSCM的工作原理可知,外部输入激励Sijm的选取十分重要,直接影响着高频部分的融合结果。当前,常见外部输入激励选取方法是通过单个区域特征,如区域能量、改进空间频率等确定,但由此容易导致融合的图像缺乏细节和边缘等信息。因此,本文提出外部输入激励Sijm由区域能量和边缘测度指标共同选取,可以使融合图像保持着更多的细节和边缘信息。图像高频部分区域能量RE和边缘测度指标EM分别定义为:
$$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{H}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} w_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{H}}}^{I}(i+x, j+y)\right]^{2} \end{array} $$ (14) 式中:DHI(i, j)上标I可取A、B,表示红外图像或可见光图像高频部分。
$$ \begin{array}{r} {\mathrm{EM}}^{I}(i, j)=\left({\boldsymbol{F}}_{1} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j)+\left({\boldsymbol{F}}_{2} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \\ +\left({\boldsymbol{F}}_{3} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \end{array} $$ (15) 式中:*表示卷积;F1为垂直方向模板;F2为水平方向模板;F3为对角线方向模板。为了有效地计算边缘信息,将F1、F2和F3取为${\boldsymbol{F}}_{1}=\left[\begin{array}{ccc} -1 & -1 & -1 \\ 2 & 2 & 2 \\ -1 & -1 & -1 \end{array}\right]$,${\boldsymbol{F}}_{2}=\left[\begin{array}{lll} -1 & 2 & -1 \\ -1 & 2 & -1 \\ -1 & 2 & -1 \end{array}\right]$,${\boldsymbol{F}}_{3}=\left[\begin{array}{ccc} -1 & 0 & -1 \\ 0 & 4 & 0 \\ -1 & 0 & -1 \end{array}\right]$。
通过上述边缘测度指标EM,能够在一定程度上反映出高频部分在垂直、水平和对角线方向的边缘信息[18]。联合边缘测度指标和区域能量作为ADCSCM的外部输入激励,能够反映出红外与可见光图像高频部分系数不同的特性。表示为:
$$ S_{i j}^{m}={\rm{RE}}_{\mathrm{H}}^{I}(i, j) \cdot {\rm{EM}}_{\mathrm{H}}^{I}(i, j) $$ (16) 图像中像素点与ADCSCM中神经元互相对应,图像的区域平均梯度可以敏锐地感知细节差异,反映着图像的纹理信息变化情况。ADCSCM中每个神经元的链接强度并不相同,通过区域平均梯度自适应调整链接强度,恰好对应着不同神经元的链接特性。为了更好地保留高频部分有效信息,本文增加主对角线和副对角线处方向的梯度计算[19],形成改进区域平均梯度IAG。IAG的数学表达式为:
$$ {\rm{IAG}}^{I}(i, j)=\frac{1}{P \times Q} \sum\limits_{i=1}^{P} \sum\limits_{j=1}^{Q}\left[\left(G_{1}^{I}(i, j)+G_{2}^{I}(i, j)+\right.\right.\\\left.\left.G_{3}^{I}(i, j)+G_{4}^{I}(i, j)\right) / 4\right]^{1 / 2} $$ (17) $$ G_{1}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j)\right]^{2} $$ (18) $$ G_{2}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i, j+1)\right]^{2} $$ (19) $$ G_{3}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j+1)\right]^{2} $$ (20) $$ G_{4}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j-1)\right]^{2} $$ (21) 式(17)~(21)中:P×Q表示区域大小,本文取为3×3,G1I(i, j)、G2I(i, j)、G3I(i, j)、G4I(i, j)分别为当前区域内的垂直、水平、主对角和副对角的梯度。
同时,本文提出链接强度βijm由IAG自适应调整,但又不完全依赖于IAG,能够更好地表现出神经元之间的链接关系,反映出红外与可见光图像高频部分中不同像素点对应的神经元点火先后。链接强度βijm表示为:
$$ \beta_{i j}^{m}=\beta_{0}+\frac{1}{1+\exp \left[-{\rm{IAG}}^{I}(i, j)\right]} $$ (22) 式中:β0为初始链接强度,本文取β0=2.0。
因此,本文提出的一种基于ADCSCM的融合规则具体可分为以下4步:
步骤1:利用式(14)~(16)计算出红外与可见光图像高频部分各自的外部输入激励,同时利用式(17)~ (22)计算出红外与可见光图像高频部分各自的链接强度;
步骤2:定义初始状态$U_{i j}^{\mathrm{A}}(0)=U_{i j}^{\mathrm{B}}(0)=U_{i j}(0)=0$,$E_{i j}(0)=X_{i j}(0)=Y_{i j}(0)=0$,同时设置ADCSCM的最大迭代次数为N0;
步骤3:通过式(1)~(6)进行N0次迭代,计算N0次迭代后的内部活动项$U_{i j}^{\mathrm{A}}\left(N_{0}\right)$、$U_{i j}^{\mathrm{B}}\left(N_{0}\right)$和Uij(N0);
步骤4:通过ADCSCM获取的高频部分融合系数DHF(i, j)选取规则为:
$$ D_{\mathrm{H}}^{\mathrm{F}}(i, j)=\left\{\begin{array}{ll} D_{\mathrm{H}}^{\mathrm{A}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{A}}\left(N_{0}\right) \\ D_{\mathrm{H}}^{\mathrm{B}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{B}}\left(N_{0}\right) \end{array}\right. $$ (23) 3. 实验与分析
为了检验本文算法的融合性能,选取CVT[20]、NSCT[21]、GTF[22]、NSCT-PCNN[23]、NSST- PAPCNN[24]、MS-WLS[3]、MLGCF[8]共7种融合算法与本文算法进行融合对比实验。实验中,选取4组经典的红外与可见光图像进行融合,分别记为“Camp”、“Lake”、“Flower”和“Bench”图像。实验相关环境为:Intel Core i7-9750H,CPU主频为2.60 GHz,内存为16 GB,Windows10操作系统和Matlab 2019a软件仿真平台。
在融合过程中,本文算法中的实验相关参数设置如下:NSST分解中,选取“maxflat”为NSST分解滤波器,分解尺度为4级,分解方向数为{4, 4, 8, 8};ADCSCM中,N0=30,远小于传统PCNN模型中所需的200次迭代次数,W、g和h与传统SCM的取值保持一致,即${\boldsymbol{W}}=\left[\begin{array}{ccc} 0.707 & 1 & 0.707 \\ 1 & 0 & 1 \\ 0.707 & 1 & 0.707 \end{array}\right]、g=0.6 、h=20$。
图 3~6为4组经典的红外与可见光图像在8种不同的融合算法下所得到的融合结果。
3.1 主观视觉分析
首先,通过人眼视觉系统对上述4组红外与可见光图像的融合结果进行主观分析。
图 3为“Camp”图像的融合结果。CVT和NSCT算法的融合图像对比度和清晰度偏低,纹理细节损失较多,且人物目标处存在伪影现象;GTF算法的融合图像人物目标部分丢失且整体模糊,严重缺失可见光细节;NSCT-PCNN和NSST-PAPCNN算法的融合图像人物目标较清晰,但严重缺失纹理细节和围栏信息,且NSST-PAPCNN算法的融合图像边缘轮廓十分模糊;MS-WLS和MLGCF算法的融合图像人物目标较清晰,纹理细节较为丰富,但缺失了部分可见光细节;而本文算法的融合图像人物目标和边缘轮廓清晰,纹理细节丰富,灌木、围栏等背景信息保留完整。
图 4为“Lake”图像的融合结果。CVT、NSCT和GTF算法的融合图像对湖面信息表征出不同程度地丢失,未能成功地综合可见光图像的湖面信息;NSCT-PCNN算法的融合图像林木信息茂盛,但湖面存在着区域污染,NSST-PAPCNN算法的融合图像整体偏亮,右上角字母处较模糊;MS-WLS和MLGCF算法的融合图像整体对比度偏低,湖面和草地信息较丰富;本文算法的融合图像整体对比度适中,清晰度高,较好地结合了红外与可见光图像的湖面和草地信息。
图 5为“Flower”图像的融合结果。8种算法的边缘轮廓清晰、纹理细节较丰富,但CVT和NSCT算法的融合图像红外目标处存在着伪影;GTF、NSCT-PCNN和NSST-PAPCNN算法的融合图像清晰度较低;本文算法的融合图像红外目标更突出,整体清晰度和视野信息保真度更高。
图 6为“Bench”图像的融合结果。CVT和NSCT算法的融合图像缺乏纹理细节,人物目标处存在伪影;GTF算法的融合图像严重缺失可见光图像里的信息;NSCT-PCNN算法的融合图像人物目标较突出,但水面处存在着区域污染;NSST-PAPCNN算法的融合图像人物目标模糊,但缺乏背景信息;MS-WLS和MLGCF算法的融合图像视野信息保真度较高,缺乏背景信息;本文算法的融合图像人物目标突出,可见光背景信息丰富,边缘轮廓清晰。
故综合对比图 3~6,本文算法的融合图像主观视觉效果表现最佳,更符合人眼视觉系统的输出。
3.2 客观指标评价
本文选用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、空间频率(Spatial Frequency, SF)、标准差(Standard Deviation, SD)以及视觉信息保真度(Visual Information Fidelity for Fusion, VIFF)共5项指标对4组红外与可见光图像的融合结果进行客观评价,5项客观指标为正项指标,其值越大表明着融合效果相对越好。表 1为4组融合图像在5项指标下的客观评价结果,最优值已通过加粗标出。
表 1 4组融合图像的客观评价结果Table 1. The objective evaluation results of four groups of fused imagesFused
imagesEvaluation indexes Algorithms CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472 IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566 SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934 SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731 VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724 Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960 IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731 SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353 SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824 VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040 Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305 IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793 SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945 SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559 VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164 Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774 IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089 SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494 SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357 VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882 观察表 1,通过对比4组图像上8种融合算法各自的5项客观指标值,可以发现本文算法的SF在“Camp”图像上稍低于MS-WLS算法,在“Lake”图像上低于NSCT-PCNN和MS-WLS算法,在“Flower”图像上稍低于MLGCF算法,在“Bench”图像上稍低于MS-WLS算法;VIFF在“Lake”图像上略低于MS-WLS算法,在“Octec”图像上低于MS-WLS和MLGCF算法,其余两组图像上,本文算法的VIFF均为最优值;此外,本文算法对MI、IE和SD共3项指标值的提升效果显著,在4组融合图像上始终为最优值,并在IE和SD两项指标上远高于其他7种融合算法。综合上述对4组融合图像的5项客观指标值进行分析,本文算法的整体表现最佳。综合主观视觉分析和客观指标评价而言,本文算法的融合性能最佳,优于其他7种传统或当前流行的融合算法。
4. 结论
本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。利用NSST的平移变换性、各向异性等特点将红外与可见光图像分解为低频和高频部分,通过自适应加权法则指导低频部分进行融合,同时通过基于ADCSCM的融合规则指导高频部分进行融合。实验结果表明,本文算法在主观视觉和客观指标上均表现更优,其融合图像更为清晰,红外目标突出,纹理细节和边缘信息也更丰富,同时能够获得较高的互信息、信息熵和标准差,是一种有效的红外与可见光图像融合算法。
-
算法基于置信度的点云去噪 输入: $ {P}_{i},i=1,...,n $ //n帧点云图像 输出: $ Pt\;\&\;Confidence $ //点云集和对应置信度 1:if $ {P}_{1}.Count=...={P}_{n}.Count $ //检查是否为同源点云 2: $ {P}_{add}\leftarrow {P}_{1}.Location+...+{P}_{1}.Location $ //矢量加和 3: $ Pt\&Confidence\leftarrow Segmention\left({P}_{add}\right) $ //分割提取 4: $ Pt\leftarrow pointCloud\left(Pt\right) $ 5:else 6: output输入错误 7: return 8:return $ Pt\&Confidence $ 表 1 不同置信度的点云数量及所占比率
Table 1 The number and percentage of point clouds with different confidence
Confidence level 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Total Number of point clouds 21238 135 132 121 91 107 139 147 174 249 22533 Proportion 0.9425 0.0060 0.0059 0.0054 0.0040 0.0047 0.0062 0.0065 0.0077 0.0111 1 表 2 不同帧数置信度去噪后点云数量
Table 2 The number of point clouds after confidence filtering with different frame numbers
Groups Pass-Through Filtering 2 Frames 4 Frames 6 Frames 8 Frames 10 Frames A1 21802 21563 21390 21343 21276 21238 A2 20932 20784 20615 20557 20489 20417 B1 39870 35106 31168 29226 27702 26531 B2 55180 50005 45664 43525 41793 40471 C1 30424 29969 29851 29743 29659 29572 C2 15897 15802 15793 15718 15641 15579 D1 47241 47028 46914 46832 46748 46657 D2 49512 49386 49297 49208 49117 49034 -
[1] LI L. Time-of-flight camera–an introduction[R/OL]. [2021-10-08]. chrome-extension: //ibllepbpahcoppkjjllbabhnigcbffpihttp://www-cs.ccny.cuny.edu/~wolberg/capstone/kinect/ToFBasicsTI14.pdf.
[2] Foix S, Alenya G, Torras C. Lock-in time-of-flight (ToF) cameras: A survey[J]. IEEE Sensors Journal, 2011, 11(9): 1917-1926. DOI: 10.1109/JSEN.2010.2101060
[3] Whyte R, Streeter L, Cree M J, et al. Review of methods for resolving multi-path interference in time-of-flight range cameras[C]//Sensors, IEEE, 2014: 629-632.
[4] ZENG J, CHEUNG G, Ng M, et al. 3D point cloud denoising using graph Laplacian regularization of a low dimensional manifold model[J]. IEEE Transactions on Image Processing, 2019, 29: 3474-3489.
[5] Fleishman S, Cohen-Or D, Silva C T. Robust moving least-squares fitting with sharp features[J]. ACM transactions on graphics (TOG), 2005, 24(3): 544-552. DOI: 10.1145/1073204.1073227
[6] Guennebaud G, Germann M, Gross M. Dynamic sampling and rendering of algebraic point set surfaces[C]//Computer Graphics Forum, 2008, 27(2): 653-662.
[7] Öztireli A C, Guennebaud G, Gross M. Feature preserving point set surfaces based on non-linear kernel regression[C]//Computer Graphics Forum, 2009, 28(2): 493-501.
[8] SUN Y, Schaefer S, WANG W. Denoising point sets via L0 minimization[J]. Computer Aided Geometric Design, 2015, 35: 2-15.
[9] Lipman Y, Cohen-Or D, Levin D, et al. Parameterization-free projection for geometry reconstruction[J]. ACM Transactions on Graphics (TOG), 2007, 26(3): 22-es. DOI: 10.1145/1276377.1276405
[10] HUANG H, LI D, ZHANG H, et al. Consolidation of unorganized point clouds for surface reconstruction[J]. ACM Transactions on Graphics (TOG), 2009, 28(5): 1-7.
[11] HUANG H, WU S, GONG M, et al. Edge-aware point set resampling[J]. ACM Transactions on Graphics (TOG), 2013, 32(1): 1-12.
[12] Avron H, Sharf A, Greif C, et al. ℓ1-sparse reconstruction of sharp point set surfaces[J]. ACM Transactions on Graphics (TOG), 2010, 29(5): 1-12.
[13] Buades A, Coll B, Morel J M. A non-local algorithm for image denoising[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), 2005, 2: 60-65.
[14] Dabov K, Foi A, Katkovnik V, et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080-2095. DOI: 10.1109/TIP.2007.901238
[15] WANG R, CHEN W, ZHANG S, et al. Similarity-based denoising of point-sampled surfaces[J]. Journal of Zhejiang University-Science A, 2008, 9(6): 807-815. DOI: 10.1631/jzus.A071465
[16] HE Y, CHEN S. Recent advances in 3D data acquisition and processing by time-of-flight camera[J]. IEEE Access, 2019, 7: 12495-12510. DOI: 10.1109/ACCESS.2019.2891693
[17] Reynolds M, Doboš J, Peel L, et al. Capturing time-of-flight data with confidence[C]//CVPR, IEEE, 2011: 945-952.
-
期刊类型引用(3)
1. 张健,黄安穴. 基于划区域宇宙算法的红外与可见光图像融合研究. 光电子·激光. 2024(09): 962-970 . 百度学术
2. 巩稼民,刘尚辉,金库,刘海洋,魏戌盟. 基于改进的区域生长法与引导滤波的图像融合. 激光与光电子学进展. 2023(16): 156-163 . 百度学术
3. 邢静,刘小虎. 基于可见光与红外图像融合的目标跟踪技术研究. 电子制作. 2022(22): 44-46 . 百度学术
其他类型引用(4)