Data Preprocessing Method for Infrared Spectra Analysis of Natural Gas Components
-
摘要: 利用红外光谱分析仪对天然气组分进行组分分析时所获得光谱信号往往会受杂散光、噪声、基线漂移等因素的干扰,从而影响最终定量分析结果,故需要在建模前对原始光谱进行预处理。为解决仪器测量光谱图的噪声干扰问题,本文提出一种Savitzky-Golay平滑法结合sym6小波函数软阈值去噪法对光谱图进行预处理。将传统的预处理方法与SG平滑法结合小波函数法进行对比分析。结果表明,以SG平滑法结合sym6小波函数软阈值去噪法对光谱图进行预处理,其拟合优度数值最高为0.98652,残差平方和数值最低为5.50694,证明使用该方法后的函数分峰拟合效果最佳,处理效果优于传统方法。Abstract: When using infrared spectroscopy to analyze the components of natural gas, the obtained spectral signals often contain interference from stray light, noise, baseline drift, and other factors, which affects the resulting quantitative analysis. Therefore, it is necessary to preprocess the original spectrum before modeling. As a potential solution, an SG smoothing method combined with the soft threshold denoising method of the sym6 wavelet function was proposed to preprocess the spectrogram. The traditional preprocessing method and the proposed method are compared and analyzed. The results show that when the proposed method is used to preprocess the spectrogram, the highest goodness of fit value is 0.98652, and the lowest residual sum of squares value is 5.50694, which proves that the function peak fitting effect is the best after using this method, and the processing effect is better than that of the traditional method.
-
Keywords:
- natural gas /
- pretreatment /
- infrared spectra /
- denoising
-
0. 引言
红外图像的目标信息突出,但通常其对比度和空间分辨率低,且严重缺失细节;可见光图像通常对比度和空间分辨率较高,细节信息丰富,但易受外界环境的干扰[1]。通过红外与可见光图像融合技术,可以有效地综合红外与可见光图像各自的优势信息,形成一幅目标更突出、细节信息更丰富的融合图像[2]。当前,红外与可见光图像融合技术已被广泛应用在目标跟踪、红外探测、军事以及民用等领域[3]。
当前,基于多尺度变换的图像融合算法是图像融合算法中研究最为广泛的一类,即使用某种多尺度变换工具将源图像分解为低频和高频部分,然后分别对低频和高频部分进行融合[2]。相应地,多种多尺度变换工具已相继被研究学者们提出,如小波变换、曲波变换(Curvelet Transform, CVT)、非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)以及剪切波变换(Sheartlet Transform, ST)等[4]。NSST是被学者们近期提出的一种多尺度变换工具,它避免了ST的下采样操作,从而具备平移不变性,还消除了NSCT的较高计算复杂度,同时NSST具备较优的多分辨率性及各向异性等特点,可以较优地应用于红外与可见光图像融合领域当中[5-6]。
近些年来,多种基于多尺度变换的红外与可见光图像融合算法仍存在着目标不够突出、纹理细节丢失等现象。如王聪等[7]提出的一种基于脉冲发放皮层模型(Spiking Cortical Model, SCM)和复剪切波变换的融合算法,其融合图像纹理细节较丰富,但红外目标不够突出,同时红外目标周围还存在着伪影现象。邓立暖等[6]提出的一种基于NSST的融合算法,通过NSST分解源图像,然后利用显著图和改进的区域对比度分别来指导低频和高频部分进行融合,其融合图像红外目标较为突出,但存在着不属于源图像的结构信息,且有部分区域污染。Tan等[8]提出的一种基于多级高斯曲率滤波(Multi-Level Gaussian Curvature Filtering, MLGCF)图像分解的融合算法,其融合图像对比度适中,纹理细节较丰富,但存在着红外目标不够突出且偏暗的现象。冯贺等[9]提出的一种结合拉普拉斯分解和与亮度调节的融合算法,其融合图像整体偏暗、虽然红外目标较突出,但丢失了部分纹理细节。
为了较好地克服上述图像融合算法存在的缺陷,本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。首先,通过NSST将红外与可见光图像分解为低频和高频部分;其次,本文结合NSL(New Sum of Laplacian)和高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合;同时,本文对SCM进行改进,由单通道改为双通道,外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整,形成ADCSCM来指导高频部分进行融合;最后,利用NSST逆变换对融合后的低频和高频部分进行重构,获取融合图像。
1. 基础理论
1.1 非下采样剪切波变换
由Guo等[10]提出的ST具备良好的局部性、方向敏感性等特点,NSST是ST的改进版本,在继承ST的优点外,还避免了ST的下采样操作,具备了ST没有的平移不变性,因此NSST能够克服图像边缘处的伪吉布斯现象。
NSST的分解过程主要为多尺度分解与方向局部化两部分[11]。使用非下采样金字塔滤波器组(Non-Subsampled Pyramid, NSP)对源图像进行多级分解,进而实现多尺度分解。k级分解后将产生1个低频子带和k个高频子带,它们与源图像的尺寸一致;使用剪切滤波器(Shearlet Filter, SF)对某一尺度下的高频子带进行多级分解,形成多个不同方向上的高频子带,实现方向局部化。l级分解后将产生2l个高频方向子带,它们与源图像尺寸一致。通过上述的NSP和SF分解,能够保证NSST的各向异性和平移不变性。此外,NSST还具有良好的稀疏表示性能与低计算成本等特点,属于一种有效的多尺度变换工具。
1.2 自适应双通道脉冲发放皮层模型
SCM由Zhan等[12]在2009年首次提出,它源于Eckhorn神经网络模型,属于一种改进的脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)模型。SCM除了具备PCNN的全局耦合性、同步脉冲性等特点外,还有参数少、计算效率高、结构简单的特点。当前,SCM在图像分割及图像融合等领域均具有明显的优势[13]。
由于SCM存在着对图像中暗部区域细节提取能力较弱的缺陷,本文在传统SCM基础上,提出了一种自适应双通道脉冲发放皮层模型,该模型能够有效地提高对图像中暗部区域细节的提取能力。此外,ADCSCM中同时输入两幅图像的外部输入激励,进而加快图像融合的速度。本文提出的ADCSCM中神经元结构如图 1所示。
ADCSCM相对应的数学表达式如下:
$$ U_{i j}^{1}(n)=S_{i j}^{1} \cdot \beta_{i j}^{1} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{1} $$ (1) $$ U_{i j}^{2}(n)=S_{i j}^{2} \cdot \beta_{i j}^{2} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{2} $$ (2) $$ U_{i j}(n)=\max \left\{U_{i j}^{1}(n), U_{i j}^{2}(n)\right\} $$ (3) $$ E_{i j}(n)=g E_{i j}(n-1)+h Y_{i j}(n-1) $$ (4) $$ X_{i j}(n)=\frac{1}{1+\exp \left[-\left(U_{i j}(n)-E_{i j}(n)\right)\right]} $$ (5) $$ Y_{i j}(n)=\left\{\begin{array}{ll} 1 & X_{i j}(n)>0.5 \\ 0 & {\rm { otherwise }} \end{array}\right. $$ (6) 式(1)~(6)中:(i, j)为神经元位置;n为迭代次数;上标1、2分别表示通道1、通道2;Sij为神经元的外部输入激励;Uij为神经元的内部活动项;Eij为动态阈值;Wijkl为神经元间的链接权重矩阵;βij为神经元的链接强度;(k, l)为神经元的周围连接;g为阈值衰减系数;h为阈值放大系数;Xij为神经元的幅度输出,采用sigmoid函数形式输出表示,能够突出幅度差异;Yij为神经元的脉冲输出,当Yij为1时,表示神经元成功点火;反之,当Yij为0时,表示神经元未成功点火。
2. 本文图像融合算法
2.1 融合流程
本文结合多尺度变换工具NSST、高斯模糊逻辑以及ADCSCM特性等,提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法,融合流程图由图 2所示,对应的融合具体步骤分为以下4步:
步骤1:使用NSST将已配准的红外图像A与可见光图像B分解为低频部分{DLA(i, j), DHA(i, j)}和高频部分{DLB(i, j), DHB(i, j)};
步骤2:结合NSL与高斯模糊逻辑,并设定双阈值来指导低频部分DLA(i, j)、DLB(i, j)进行融合,获取融合后的低频部分DLF(i, j);
步骤3:同时采用基于ADCSCM的融合规则来指导高频部分DHA(i, j)、DHB(i, j)进行融合,获取融合后的高频部分DHF(i, j);
步骤4:最后,通过NSST逆变换对DLF(i, j)、DHF(i, j)进行重构,获取融合图像F。
2.2 低频部分融合规则
低频部分主要是源图像的基本信息,反映着图像的主要轮廓。传统的低频部分融合规则如取平均法、简单加权法等容易丢失源图像的细节,导致融合的效果一般。为了克服传统低频部分融合规则的缺陷,本文提出结合NSL与高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合。
拉普拉斯能量和在表明图像的能量信息时,还能反映出图像的边缘特性[14]。但传统拉普拉斯能量和仅计算了像素点的垂直和水平方向的拉普拉斯算子,未考虑对角方向的拉普拉斯算子,从而丢失了部分图像细节。在此基础上,本文增加了主对角和副对角的拉普拉斯算子值,形成NSL[14]。NSL定义为:
$$ \begin{array}{l} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i, j)=\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j)-D_{{\mathrm{L}}}^{I}(i+1, j)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i, j-1)-D_{{\mathrm{L}}}^{I}(i, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j-1)-D_{{\mathrm{L}}}^{I}(i+1, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j+1)-D_{{\mathrm{L}}}^{I}(i+1, j-1)\right| \end{array} $$ (7) $$ {\mathrm{NSL}}_{{\mathrm{L}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i+x, j+y) $$ (8) 式(7)~(8)中:DLI(i, j)上标I可取A、B,表示红外图像或可见光图像低频部分;NLLI(i, j)为新拉普拉斯算子;M和N为区域窗口测度,表示区域窗口大小为(2M+1)×(2N+1),本文取3×3,即M=N=1。
则基于NSL的权重因子定义如下:
$$ \left\{\begin{array}{l} \omega_{1}=\frac{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\alpha_{0} \cdot {\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)} \\ \omega_{2}=1-\omega_{1} \end{array}\right. $$ (9) 式中:α0为权重调节参数,本文参考文献[15],相应取α0=3。ω1为红外权重因子,ω2为可见光权重因子。
同时,红外图像的直方图呈现高斯分布,与高斯模糊逻辑的特性相似。侧面表明高斯模糊逻辑的隶属度可以较优地描述红外图像的目标和背景信息[16]。则红外低频部分的背景隶属度ωB和目标隶属度ωT由高斯函数确定,分别定义如下:
$$ \left\{\begin{array}{l} \omega_{{\mathrm{B}}}(i, j)=\exp \left[\frac{\left(D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)-\mu\right)^{2}}{-2 \cdot\left(k_{0} \sigma\right)^{2}}\right] \\ \omega_{{\mathrm{T}}}(i, j)=1-\omega_{{\mathrm{B}}}(i, j) \end{array}\right. $$ (10) 式中:μ为红外低频部分的均值;σ为红外低频部分的标准差;k0为自适应调节参数,取值范围一般为1~3,本文取k0=2。
将红外低频部分的背景隶属度、目标隶属度与ω1、ω2相结合,形成修正的红外权重因子λ1和可见光权重因子λ2用于融合低频部分,λ1、λ2分别定义如下:
$$ \left\{ {\begin{array}{*{20}{l}} {{\lambda _1}(i, j) = \frac{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j)}}{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j) + {\omega _{\rm{B}}}(i, j){\omega _{\rm{2}}}(i, j)}}} \\ {{\lambda _2}(i, j) = 1 - {\lambda _1}(i, j)} \end{array}} \right. $$ (11) 其次,区域能量反映着图像中像素点的局部变化强度,可以较好地表现出红外与可见光图像各自的信息特征。图像低频部分区域能量RE定义为:
$$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{I}}}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\boldsymbol{w}}_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{L}}}^{{\mathrm{I}}}(i+x, j+y)\right]^{2} \end{array} $$ (12) 式中:w0为窗口掩膜矩阵,越靠近中心点表明其权值相对越大,本文取${\boldsymbol{w}}_{0}=\frac{1}{16}\left[\begin{array}{l} 1 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 1 \end{array}\right]$。
基于上述的区域能量,设定双阈值T1、T2与其结合,进而判断融合图像低频部分中的某像素点属于明显的红外图像或可见光图像特征信息。具体表述为:
记${\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)=\frac{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)}$,若RELX(i, j)大于T1,表明该像素点属于较明显的红外信息,则其低频融合系数等价于红外图像低频系数;相应地,若RELX(i, j)小于T2,表明该像素点属于较明显的可见光信息,则其低频融合系数等价于可见光图像低频系数。其中,T1、T2为不同的常数,且需保证T1>1>T2,在经过多次融合实验后,当T1、T2分别取T1=12、T2=0.75时,本文融合算法具有较优的融合效果。
因此,低频部分融合系数DLF(i, j)可以表示为:
$$ D_{{\mathrm{L}}}^{{\mathrm{F}}}(i, j)=\left\{\begin{array}{l} D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)>T_{1} \\ D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)<T_{2} \\ \lambda_{1}(i, j) D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\lambda_{2}(i, j) D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \text { otherwise } \end{array}\right. $$ (13) 2.3 高频部分融合规则
高频部分主要是源图像的细节,反映着图像的突变特性。常见的融合规则如区域能量取大、绝对值取大规则等虽然简单高效,但忽略了图像像素间的相关性,容易导致融合图像纹理细节或边缘信息的丢失,造成图像扭曲[17]。SCM是PCNN模型的简化版本,具有全局耦合性、同步脉冲性和计算量小等优势,能够较好地突出图像的细节部分。为了保留源图像的细节,本文提出基于ADCSCM的融合规则来指导高频部分进行融合,其外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整。ADCSCM在继承SCM的优点外,还能够弥补SCM对图像暗部区域细节提取能力较弱的缺陷,反映出图像的突变特性、加快图像融合的速度。
在ADCSCM中,记外部输入激励为Sijm,链接强度为βijm,其中上标m=1, 2,表示为通道1、通道2,其中通道1与红外图像A高频部分相对应,通道2与可见光图像B高频部分相对应。
由ADCSCM的工作原理可知,外部输入激励Sijm的选取十分重要,直接影响着高频部分的融合结果。当前,常见外部输入激励选取方法是通过单个区域特征,如区域能量、改进空间频率等确定,但由此容易导致融合的图像缺乏细节和边缘等信息。因此,本文提出外部输入激励Sijm由区域能量和边缘测度指标共同选取,可以使融合图像保持着更多的细节和边缘信息。图像高频部分区域能量RE和边缘测度指标EM分别定义为:
$$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{H}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} w_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{H}}}^{I}(i+x, j+y)\right]^{2} \end{array} $$ (14) 式中:DHI(i, j)上标I可取A、B,表示红外图像或可见光图像高频部分。
$$ \begin{array}{r} {\mathrm{EM}}^{I}(i, j)=\left({\boldsymbol{F}}_{1} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j)+\left({\boldsymbol{F}}_{2} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \\ +\left({\boldsymbol{F}}_{3} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \end{array} $$ (15) 式中:*表示卷积;F1为垂直方向模板;F2为水平方向模板;F3为对角线方向模板。为了有效地计算边缘信息,将F1、F2和F3取为${\boldsymbol{F}}_{1}=\left[\begin{array}{ccc} -1 & -1 & -1 \\ 2 & 2 & 2 \\ -1 & -1 & -1 \end{array}\right]$,${\boldsymbol{F}}_{2}=\left[\begin{array}{lll} -1 & 2 & -1 \\ -1 & 2 & -1 \\ -1 & 2 & -1 \end{array}\right]$,${\boldsymbol{F}}_{3}=\left[\begin{array}{ccc} -1 & 0 & -1 \\ 0 & 4 & 0 \\ -1 & 0 & -1 \end{array}\right]$。
通过上述边缘测度指标EM,能够在一定程度上反映出高频部分在垂直、水平和对角线方向的边缘信息[18]。联合边缘测度指标和区域能量作为ADCSCM的外部输入激励,能够反映出红外与可见光图像高频部分系数不同的特性。表示为:
$$ S_{i j}^{m}={\rm{RE}}_{\mathrm{H}}^{I}(i, j) \cdot {\rm{EM}}_{\mathrm{H}}^{I}(i, j) $$ (16) 图像中像素点与ADCSCM中神经元互相对应,图像的区域平均梯度可以敏锐地感知细节差异,反映着图像的纹理信息变化情况。ADCSCM中每个神经元的链接强度并不相同,通过区域平均梯度自适应调整链接强度,恰好对应着不同神经元的链接特性。为了更好地保留高频部分有效信息,本文增加主对角线和副对角线处方向的梯度计算[19],形成改进区域平均梯度IAG。IAG的数学表达式为:
$$ {\rm{IAG}}^{I}(i, j)=\frac{1}{P \times Q} \sum\limits_{i=1}^{P} \sum\limits_{j=1}^{Q}\left[\left(G_{1}^{I}(i, j)+G_{2}^{I}(i, j)+\right.\right.\\\left.\left.G_{3}^{I}(i, j)+G_{4}^{I}(i, j)\right) / 4\right]^{1 / 2} $$ (17) $$ G_{1}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j)\right]^{2} $$ (18) $$ G_{2}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i, j+1)\right]^{2} $$ (19) $$ G_{3}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j+1)\right]^{2} $$ (20) $$ G_{4}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j-1)\right]^{2} $$ (21) 式(17)~(21)中:P×Q表示区域大小,本文取为3×3,G1I(i, j)、G2I(i, j)、G3I(i, j)、G4I(i, j)分别为当前区域内的垂直、水平、主对角和副对角的梯度。
同时,本文提出链接强度βijm由IAG自适应调整,但又不完全依赖于IAG,能够更好地表现出神经元之间的链接关系,反映出红外与可见光图像高频部分中不同像素点对应的神经元点火先后。链接强度βijm表示为:
$$ \beta_{i j}^{m}=\beta_{0}+\frac{1}{1+\exp \left[-{\rm{IAG}}^{I}(i, j)\right]} $$ (22) 式中:β0为初始链接强度,本文取β0=2.0。
因此,本文提出的一种基于ADCSCM的融合规则具体可分为以下4步:
步骤1:利用式(14)~(16)计算出红外与可见光图像高频部分各自的外部输入激励,同时利用式(17)~ (22)计算出红外与可见光图像高频部分各自的链接强度;
步骤2:定义初始状态$U_{i j}^{\mathrm{A}}(0)=U_{i j}^{\mathrm{B}}(0)=U_{i j}(0)=0$,$E_{i j}(0)=X_{i j}(0)=Y_{i j}(0)=0$,同时设置ADCSCM的最大迭代次数为N0;
步骤3:通过式(1)~(6)进行N0次迭代,计算N0次迭代后的内部活动项$U_{i j}^{\mathrm{A}}\left(N_{0}\right)$、$U_{i j}^{\mathrm{B}}\left(N_{0}\right)$和Uij(N0);
步骤4:通过ADCSCM获取的高频部分融合系数DHF(i, j)选取规则为:
$$ D_{\mathrm{H}}^{\mathrm{F}}(i, j)=\left\{\begin{array}{ll} D_{\mathrm{H}}^{\mathrm{A}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{A}}\left(N_{0}\right) \\ D_{\mathrm{H}}^{\mathrm{B}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{B}}\left(N_{0}\right) \end{array}\right. $$ (23) 3. 实验与分析
为了检验本文算法的融合性能,选取CVT[20]、NSCT[21]、GTF[22]、NSCT-PCNN[23]、NSST- PAPCNN[24]、MS-WLS[3]、MLGCF[8]共7种融合算法与本文算法进行融合对比实验。实验中,选取4组经典的红外与可见光图像进行融合,分别记为“Camp”、“Lake”、“Flower”和“Bench”图像。实验相关环境为:Intel Core i7-9750H,CPU主频为2.60 GHz,内存为16 GB,Windows10操作系统和Matlab 2019a软件仿真平台。
在融合过程中,本文算法中的实验相关参数设置如下:NSST分解中,选取“maxflat”为NSST分解滤波器,分解尺度为4级,分解方向数为{4, 4, 8, 8};ADCSCM中,N0=30,远小于传统PCNN模型中所需的200次迭代次数,W、g和h与传统SCM的取值保持一致,即${\boldsymbol{W}}=\left[\begin{array}{ccc} 0.707 & 1 & 0.707 \\ 1 & 0 & 1 \\ 0.707 & 1 & 0.707 \end{array}\right]、g=0.6 、h=20$。
图 3~6为4组经典的红外与可见光图像在8种不同的融合算法下所得到的融合结果。
3.1 主观视觉分析
首先,通过人眼视觉系统对上述4组红外与可见光图像的融合结果进行主观分析。
图 3为“Camp”图像的融合结果。CVT和NSCT算法的融合图像对比度和清晰度偏低,纹理细节损失较多,且人物目标处存在伪影现象;GTF算法的融合图像人物目标部分丢失且整体模糊,严重缺失可见光细节;NSCT-PCNN和NSST-PAPCNN算法的融合图像人物目标较清晰,但严重缺失纹理细节和围栏信息,且NSST-PAPCNN算法的融合图像边缘轮廓十分模糊;MS-WLS和MLGCF算法的融合图像人物目标较清晰,纹理细节较为丰富,但缺失了部分可见光细节;而本文算法的融合图像人物目标和边缘轮廓清晰,纹理细节丰富,灌木、围栏等背景信息保留完整。
图 4为“Lake”图像的融合结果。CVT、NSCT和GTF算法的融合图像对湖面信息表征出不同程度地丢失,未能成功地综合可见光图像的湖面信息;NSCT-PCNN算法的融合图像林木信息茂盛,但湖面存在着区域污染,NSST-PAPCNN算法的融合图像整体偏亮,右上角字母处较模糊;MS-WLS和MLGCF算法的融合图像整体对比度偏低,湖面和草地信息较丰富;本文算法的融合图像整体对比度适中,清晰度高,较好地结合了红外与可见光图像的湖面和草地信息。
图 5为“Flower”图像的融合结果。8种算法的边缘轮廓清晰、纹理细节较丰富,但CVT和NSCT算法的融合图像红外目标处存在着伪影;GTF、NSCT-PCNN和NSST-PAPCNN算法的融合图像清晰度较低;本文算法的融合图像红外目标更突出,整体清晰度和视野信息保真度更高。
图 6为“Bench”图像的融合结果。CVT和NSCT算法的融合图像缺乏纹理细节,人物目标处存在伪影;GTF算法的融合图像严重缺失可见光图像里的信息;NSCT-PCNN算法的融合图像人物目标较突出,但水面处存在着区域污染;NSST-PAPCNN算法的融合图像人物目标模糊,但缺乏背景信息;MS-WLS和MLGCF算法的融合图像视野信息保真度较高,缺乏背景信息;本文算法的融合图像人物目标突出,可见光背景信息丰富,边缘轮廓清晰。
故综合对比图 3~6,本文算法的融合图像主观视觉效果表现最佳,更符合人眼视觉系统的输出。
3.2 客观指标评价
本文选用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、空间频率(Spatial Frequency, SF)、标准差(Standard Deviation, SD)以及视觉信息保真度(Visual Information Fidelity for Fusion, VIFF)共5项指标对4组红外与可见光图像的融合结果进行客观评价,5项客观指标为正项指标,其值越大表明着融合效果相对越好。表 1为4组融合图像在5项指标下的客观评价结果,最优值已通过加粗标出。
表 1 4组融合图像的客观评价结果Table 1. The objective evaluation results of four groups of fused imagesFused
imagesEvaluation indexes Algorithms CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472 IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566 SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934 SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731 VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724 Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960 IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731 SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353 SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824 VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040 Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305 IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793 SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945 SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559 VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164 Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774 IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089 SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494 SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357 VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882 观察表 1,通过对比4组图像上8种融合算法各自的5项客观指标值,可以发现本文算法的SF在“Camp”图像上稍低于MS-WLS算法,在“Lake”图像上低于NSCT-PCNN和MS-WLS算法,在“Flower”图像上稍低于MLGCF算法,在“Bench”图像上稍低于MS-WLS算法;VIFF在“Lake”图像上略低于MS-WLS算法,在“Octec”图像上低于MS-WLS和MLGCF算法,其余两组图像上,本文算法的VIFF均为最优值;此外,本文算法对MI、IE和SD共3项指标值的提升效果显著,在4组融合图像上始终为最优值,并在IE和SD两项指标上远高于其他7种融合算法。综合上述对4组融合图像的5项客观指标值进行分析,本文算法的整体表现最佳。综合主观视觉分析和客观指标评价而言,本文算法的融合性能最佳,优于其他7种传统或当前流行的融合算法。
4. 结论
本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。利用NSST的平移变换性、各向异性等特点将红外与可见光图像分解为低频和高频部分,通过自适应加权法则指导低频部分进行融合,同时通过基于ADCSCM的融合规则指导高频部分进行融合。实验结果表明,本文算法在主观视觉和客观指标上均表现更优,其融合图像更为清晰,红外目标突出,纹理细节和边缘信息也更丰富,同时能够获得较高的互信息、信息熵和标准差,是一种有效的红外与可见光图像融合算法。
-
表 1 SG平滑+sym6小波变换与传统方法性能指标对比
Table 1 Performance index comparison of SG smoothing + sym6 wavelet transform and traditional methods
Pretreatment method Fitting performance evaluation index Various fitting parameters R-Square SSE xc w FWHM A Area SG smoothing method(N=20) 0.97405 11.79833 2834.49055 39.20784 92.32725 5.59823 550.1827 2981.79713 43.97818 103.56054 2.81837 310.68118 Median filter 0.97146 14.0104 2837.10274 45.2766707 106.618 5.27621 598.804 2987.60154 37.49498 88.29445 2.94599 296.87252 SG(N=20)+db3 3-layer decomposition wavelet 0.9732 11.82987 2833.61284 38.94472 91.7078 5.60191 546.85842 2982.83007 47.12747 110.97672 2.74588 324.37366 SG(N=20)+sym6 4-layer decomposition wavelet 0.98652 5.50694 2836.78074 47.98166 112.9881 5.03243 605.2586 2988.78528 34.83569 82..03177 2.8878 252.1598 -
[1] JIAO Y, LI Z, CHEN X, et al. Preprocessing methods for near-infrared spectrum calibration[J]. Journal of Chemometrics, 2020, 34(11): e3306.
[2] YANG J, DU L, GONG W, et al. Analyzing the performance of the first-derivative fluorescence spectrum for estimating leaf nitrogen concentration[J]. Optics Express, 2019, 27(4): 3978. DOI: 10.1364/OE.27.003978
[3] LI Y, HUANG Y, XIA J, et al. Quantitative analysis of honey adulteration by spectrum analysis combined with several high-level data fusion strategies[J]. Vibrational Spectroscopy, 2020, 108: 103060. DOI: 10.1016/j.vibspec.2020.103060
[4] 第五鹏瑶, 卞希慧, 王姿方, 等. 光谱预处理方法选择研究[J]. 光谱学与光谱分析, 2019, 39(9): 2800-2806. https://www.cnki.com.cn/Article/CJFDTOTAL-GUAN201909027.htm DIWU Pengyao, BIAN Xi Hui, WANG Zifang, et al. Selection of spectral pretreatment methods[J]. Spectroscopy and Spectral Analysis, 2019, 39 (9): 2800-2806 https://www.cnki.com.cn/Article/CJFDTOTAL-GUAN201909027.htm
[5] Bastiaansen W, Klein S, Steegers㏕heunissen R P, et al. VP24.02: towards a novel human embryonic brain atlas: fully automated preprocessing of prenatal ultrasound using artificial intelligence[J]. Ultrasound in Obstetrics and Gynecology, 2020, 56(S1): 159-159.
[6] HUANG X, HUANG C, ZHAI G, et al. Data processing method of multibeam bathymetry based on sparse weighted LS-SVM machine algorithm[J]. IEEE Journal of Oceanic Engineering, 2019, 45(4): 1538-1551.
[7] DING Y, ZHANG W, ZHAO X, et al. A hybrid random forest method fusing wavelet transform and variable importance for the quantitative analysis of K in potassic salt or using laser-induced breakdown spectroscopy[J]. Journal of Analytical Atomic Spectrometry, 2020, 35(6): 1131-1138. DOI: 10.1039/D0JA00010H
[8] ZHANG J, WEN H, TANG L. Improved smoothing frequency shifting and filtering algorithm for harmonic analysis with systematic error compensation[J]. IEEE Transactions on Industrial Electronics, 2019, 66(12): 9500-9509. DOI: 10.1109/TIE.2019.2892664
[9] 杨帆, 王鹏, 张宁超, 等. 一种基于小波变换的改进滤波算法及其在光谱去噪方面的应用[J]. 国外电子测量技术, 2020, 39(8): 98-104. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202008021.htm YANG Fan, WANG Peng, ZHANG Ningchao, et al. An improved filtering algorithm based on wavelet transform and its application in spectral denoising[J]. Foreign Electronic Measurement Technology, 2020, 39 (8): 98-104. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202008021.htm
[10] Mahajan G R, Das B, Gaikwad B, et al. Monitoring properties of the salt-affected soils by multivariate analysis of the visible and near- infrared hyperspectral data[J]. Catena, 2021, 198: 105041. DOI: 10.1016/j.catena.2020.105041
[11] 侯培国, 李宁, 常江, 等. SG平滑和IBPLS联合优化水中油分析方法的研究[J]. 光谱学与光谱分析, 2015, 35(6): 1529-1533. DOI: 10.3964/j.issn.1000-0593(2015)06-1529-05 HOU Peiguo, LI Ning, CHANG Jiang, et al. Research on SG smoothing and IBPLS joint optimization of oil-in-water analysis method[J]. Spectroscopy and Spectral Analysis, 2015, 35(6): 1529-1533. DOI: 10.3964/j.issn.1000-0593(2015)06-1529-05
[12] Zikiou N, Lahdir M, Helbert D. Hyperspectral image classification using graph-based wavelet transform[J]. International Journal of Remote Sensing, 2020, 41(7): 2624-2643. DOI: 10.1080/01431161.2019.1694194
[13] Bunaciu A A, Aboul-Enein H Y. Adulterated drug analysis using FTIR spectroscopy[J]. Applied Spectroscopy Reviews, 2021, 56(5): 423-437. DOI: 10.1080/05704928.2020.1811717
[14] LIU F, ZHANG Y, Yildirim T, et al. Signal denoising optimization based on a Hilbert-Huang transform-triple adaptable wavelet packet transform algorithm[J]. EPL (Europhysics Letters), 2019, 124(5): 54002. DOI: 10.1209/0295-5075/124/54002
[15] ZHANG M, LU C, LIU C. Improved double-threshold denoising method based on the wavelet transform[J]. OSA Continuum, 2019, 2(8): 2328-2342. DOI: 10.1364/OSAC.2.002328
-
期刊类型引用(3)
1. 张健,黄安穴. 基于划区域宇宙算法的红外与可见光图像融合研究. 光电子·激光. 2024(09): 962-970 . 百度学术
2. 巩稼民,刘尚辉,金库,刘海洋,魏戌盟. 基于改进的区域生长法与引导滤波的图像融合. 激光与光电子学进展. 2023(16): 156-163 . 百度学术
3. 邢静,刘小虎. 基于可见光与红外图像融合的目标跟踪技术研究. 电子制作. 2022(22): 44-46 . 百度学术
其他类型引用(4)