小波梯度域重建融合法应用于龋齿太赫兹成像

柳启航, 何明霞, 赵晋武, 李岩

柳启航, 何明霞, 赵晋武, 李岩. 小波梯度域重建融合法应用于龋齿太赫兹成像[J]. 红外技术, 2023, 45(8): 890-896.
引用本文: 柳启航, 何明霞, 赵晋武, 李岩. 小波梯度域重建融合法应用于龋齿太赫兹成像[J]. 红外技术, 2023, 45(8): 890-896.
LIU Qihang, HE Mingxia, ZHAO Jinwu, LI Yan. Terahertz Imaging of Caries Wavelet Gradient Domain Reconstruction Fusion[J]. Infrared Technology , 2023, 45(8): 890-896.
Citation: LIU Qihang, HE Mingxia, ZHAO Jinwu, LI Yan. Terahertz Imaging of Caries Wavelet Gradient Domain Reconstruction Fusion[J]. Infrared Technology , 2023, 45(8): 890-896.

小波梯度域重建融合法应用于龋齿太赫兹成像

基金项目: 

国家自然基金委面上项目 61675151

海南省重大科技计划项目 ZDKJ2019013

详细信息
    作者简介:

    柳启航(1997-),男,硕士,主要研究方向:非极性材料的太赫兹无损检测技术应用,太赫兹成像及图像处理。E-mail: 1695088356@qq.com

    通讯作者:

    何明霞(1965-),女,博士,教授,博士生导师,主要研究方向:太赫兹光谱技术探测生物组织太赫兹特性,太赫兹电磁波技术研究生物深层信息探测的新机理、新方法和新技术装置的研究,以及非极性材料的太赫兹无损检测技术应用等。E-mail: hhmmxx@tju.edu.cn

  • 中图分类号: O433, R781.1

Terahertz Imaging of Caries Wavelet Gradient Domain Reconstruction Fusion

  • 摘要: 龋病是发病率最高的口腔疾病,也是全世界最流行的疾病之一。太赫兹光谱成像技术因具有宽频带光谱分析能力强、空间分辨率高、电离辐射低等优势,有望成为龋病诊断的新技术手段。本文以含牙本质龋的牙齿切片为研究对象,进行反射式太赫兹光谱扫描,以频域幅值为参数对样品的光谱数据做二维重构成像,获得多幅不同频率下的龋齿太赫兹光谱图像。为了解决单一参数所得的龋齿太赫兹图像动态范围小、对比度低,边缘和细节位置模糊不清的问题,采用小波梯度域重建的融合方法,将多幅图像中梯度幅值较大的部分集中于一幅图像上,得到了一幅细节特征更加清晰完整的新图像。实验结果表明,融合后的图像相较于融合前的图像在信息熵、平均梯度以及对比度上均有所提高,不同组织之间的区分效果更加显著。
    Abstract: Caries is one of the most prevalent oral diseases worldwide. Terahertz spectral imaging technology has the advantages of strong broadband spectral analysis ability, high spatial resolution, and low ionizing radiation and is expected to be a new technical means for caries diagnosis. In this study, tooth slices containing dentin caries were used as the research object, and reflective terahertz spectral scanning was performed. The spectral data of the samples were reconstructed using two-dimensional imaging with the frequency-domain amplitude as the parameter, and several terahertz spectral images of caries were obtained at different frequencies. To solve the problems of small dynamic range, low contrast, and ambiguous edges, the detailed position of the terahertz image was obtained using a single parameter. Using the fusion method of wavelet gradient domain reconstruction, the larger gradient amplitudes of several images are concentrated in one image, and a new image with clearer and more complete detailed features is obtained. The experimental results show that the information entropy, average gradient, and contrast of the fused images are improved compared with those of the pre-fused images, and the discrimination effect between different tissues is more significant.
  • 红外图像的目标信息突出,但通常其对比度和空间分辨率低,且严重缺失细节;可见光图像通常对比度和空间分辨率较高,细节信息丰富,但易受外界环境的干扰[1]。通过红外与可见光图像融合技术,可以有效地综合红外与可见光图像各自的优势信息,形成一幅目标更突出、细节信息更丰富的融合图像[2]。当前,红外与可见光图像融合技术已被广泛应用在目标跟踪、红外探测、军事以及民用等领域[3]

    当前,基于多尺度变换的图像融合算法是图像融合算法中研究最为广泛的一类,即使用某种多尺度变换工具将源图像分解为低频和高频部分,然后分别对低频和高频部分进行融合[2]。相应地,多种多尺度变换工具已相继被研究学者们提出,如小波变换、曲波变换(Curvelet Transform, CVT)、非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)以及剪切波变换(Sheartlet Transform, ST)等[4]。NSST是被学者们近期提出的一种多尺度变换工具,它避免了ST的下采样操作,从而具备平移不变性,还消除了NSCT的较高计算复杂度,同时NSST具备较优的多分辨率性及各向异性等特点,可以较优地应用于红外与可见光图像融合领域当中[5-6]

    近些年来,多种基于多尺度变换的红外与可见光图像融合算法仍存在着目标不够突出、纹理细节丢失等现象。如王聪等[7]提出的一种基于脉冲发放皮层模型(Spiking Cortical Model, SCM)和复剪切波变换的融合算法,其融合图像纹理细节较丰富,但红外目标不够突出,同时红外目标周围还存在着伪影现象。邓立暖等[6]提出的一种基于NSST的融合算法,通过NSST分解源图像,然后利用显著图和改进的区域对比度分别来指导低频和高频部分进行融合,其融合图像红外目标较为突出,但存在着不属于源图像的结构信息,且有部分区域污染。Tan等[8]提出的一种基于多级高斯曲率滤波(Multi-Level Gaussian Curvature Filtering, MLGCF)图像分解的融合算法,其融合图像对比度适中,纹理细节较丰富,但存在着红外目标不够突出且偏暗的现象。冯贺等[9]提出的一种结合拉普拉斯分解和与亮度调节的融合算法,其融合图像整体偏暗、虽然红外目标较突出,但丢失了部分纹理细节。

    为了较好地克服上述图像融合算法存在的缺陷,本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。首先,通过NSST将红外与可见光图像分解为低频和高频部分;其次,本文结合NSL(New Sum of Laplacian)和高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合;同时,本文对SCM进行改进,由单通道改为双通道,外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整,形成ADCSCM来指导高频部分进行融合;最后,利用NSST逆变换对融合后的低频和高频部分进行重构,获取融合图像。

    由Guo等[10]提出的ST具备良好的局部性、方向敏感性等特点,NSST是ST的改进版本,在继承ST的优点外,还避免了ST的下采样操作,具备了ST没有的平移不变性,因此NSST能够克服图像边缘处的伪吉布斯现象。

    NSST的分解过程主要为多尺度分解与方向局部化两部分[11]。使用非下采样金字塔滤波器组(Non-Subsampled Pyramid, NSP)对源图像进行多级分解,进而实现多尺度分解。k级分解后将产生1个低频子带和k个高频子带,它们与源图像的尺寸一致;使用剪切滤波器(Shearlet Filter, SF)对某一尺度下的高频子带进行多级分解,形成多个不同方向上的高频子带,实现方向局部化。l级分解后将产生2l个高频方向子带,它们与源图像尺寸一致。通过上述的NSP和SF分解,能够保证NSST的各向异性和平移不变性。此外,NSST还具有良好的稀疏表示性能与低计算成本等特点,属于一种有效的多尺度变换工具。

    SCM由Zhan等[12]在2009年首次提出,它源于Eckhorn神经网络模型,属于一种改进的脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)模型。SCM除了具备PCNN的全局耦合性、同步脉冲性等特点外,还有参数少、计算效率高、结构简单的特点。当前,SCM在图像分割及图像融合等领域均具有明显的优势[13]

    由于SCM存在着对图像中暗部区域细节提取能力较弱的缺陷,本文在传统SCM基础上,提出了一种自适应双通道脉冲发放皮层模型,该模型能够有效地提高对图像中暗部区域细节的提取能力。此外,ADCSCM中同时输入两幅图像的外部输入激励,进而加快图像融合的速度。本文提出的ADCSCM中神经元结构如图 1所示。

    图  1  ADCSCM结构
    Figure  1.  The structure of ADCSCM

    ADCSCM相对应的数学表达式如下:

    $$ U_{i j}^{1}(n)=S_{i j}^{1} \cdot \beta_{i j}^{1} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{1} $$ (1)
    $$ U_{i j}^{2}(n)=S_{i j}^{2} \cdot \beta_{i j}^{2} \sum\limits_{k l} {\boldsymbol{W}}_{i j k l} Y_{k l}(n-1)+S_{i j}^{2} $$ (2)
    $$ U_{i j}(n)=\max \left\{U_{i j}^{1}(n), U_{i j}^{2}(n)\right\} $$ (3)
    $$ E_{i j}(n)=g E_{i j}(n-1)+h Y_{i j}(n-1) $$ (4)
    $$ X_{i j}(n)=\frac{1}{1+\exp \left[-\left(U_{i j}(n)-E_{i j}(n)\right)\right]} $$ (5)
    $$ Y_{i j}(n)=\left\{\begin{array}{ll} 1 & X_{i j}(n)>0.5 \\ 0 & {\rm { otherwise }} \end{array}\right. $$ (6)

    式(1)~(6)中:(i, j)为神经元位置;n为迭代次数;上标1、2分别表示通道1、通道2;Sij为神经元的外部输入激励;Uij为神经元的内部活动项;Eij为动态阈值;Wijkl为神经元间的链接权重矩阵;βij为神经元的链接强度;(k, l)为神经元的周围连接;g为阈值衰减系数;h为阈值放大系数;Xij为神经元的幅度输出,采用sigmoid函数形式输出表示,能够突出幅度差异;Yij为神经元的脉冲输出,当Yij为1时,表示神经元成功点火;反之,当Yij为0时,表示神经元未成功点火。

    本文结合多尺度变换工具NSST、高斯模糊逻辑以及ADCSCM特性等,提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法,融合流程图由图 2所示,对应的融合具体步骤分为以下4步:

    图  2  本文算法融合流程图
    Figure  2.  Fusion flow chart of the proposed algorithm

    步骤1:使用NSST将已配准的红外图像A与可见光图像B分解为低频部分{DLA(i, j), DHA(i, j)}和高频部分{DLB(i, j), DHB(i, j)};

    步骤2:结合NSL与高斯模糊逻辑,并设定双阈值来指导低频部分DLA(i, j)、DLB(i, j)进行融合,获取融合后的低频部分DLF(i, j);

    步骤3:同时采用基于ADCSCM的融合规则来指导高频部分DHA(i, j)、DHB(i, j)进行融合,获取融合后的高频部分DHF(i, j);

    步骤4:最后,通过NSST逆变换对DLF(i, j)、DHF(i, j)进行重构,获取融合图像F。

    低频部分主要是源图像的基本信息,反映着图像的主要轮廓。传统的低频部分融合规则如取平均法、简单加权法等容易丢失源图像的细节,导致融合的效果一般。为了克服传统低频部分融合规则的缺陷,本文提出结合NSL与高斯模糊逻辑,并设定双阈值,形成一种自适应加权法则来指导低频部分进行融合。

    拉普拉斯能量和在表明图像的能量信息时,还能反映出图像的边缘特性[14]。但传统拉普拉斯能量和仅计算了像素点的垂直和水平方向的拉普拉斯算子,未考虑对角方向的拉普拉斯算子,从而丢失了部分图像细节。在此基础上,本文增加了主对角和副对角的拉普拉斯算子值,形成NSL[14]。NSL定义为:

    $$ \begin{array}{l} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i, j)=\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j)-D_{{\mathrm{L}}}^{I}(i+1, j)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i, j-1)-D_{{\mathrm{L}}}^{I}(i, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j-1)-D_{{\mathrm{L}}}^{I}(i+1, j+1)\right|+ \\ \quad\left|2 D_{{\mathrm{L}}}^{I}(i, j)-D_{{\mathrm{L}}}^{I}(i-1, j+1)-D_{{\mathrm{L}}}^{I}(i+1, j-1)\right| \end{array} $$ (7)
    $$ {\mathrm{NSL}}_{{\mathrm{L}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\mathrm{NL}}_{{\mathrm{L}}}^{I}(i+x, j+y) $$ (8)

    式(7)~(8)中:DLI(i, j)上标I可取A、B,表示红外图像或可见光图像低频部分;NLLI(i, j)为新拉普拉斯算子;MN为区域窗口测度,表示区域窗口大小为(2M+1)×(2N+1),本文取3×3,即M=N=1。

    则基于NSL的权重因子定义如下:

    $$ \left\{\begin{array}{l} \omega_{1}=\frac{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\alpha_{0} \cdot {\mathrm{NSL}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)} \\ \omega_{2}=1-\omega_{1} \end{array}\right. $$ (9)

    式中:α0为权重调节参数,本文参考文献[15],相应取α0=3。ω1为红外权重因子,ω2为可见光权重因子。

    同时,红外图像的直方图呈现高斯分布,与高斯模糊逻辑的特性相似。侧面表明高斯模糊逻辑的隶属度可以较优地描述红外图像的目标和背景信息[16]。则红外低频部分的背景隶属度ωB和目标隶属度ωT由高斯函数确定,分别定义如下:

    $$ \left\{\begin{array}{l} \omega_{{\mathrm{B}}}(i, j)=\exp \left[\frac{\left(D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)-\mu\right)^{2}}{-2 \cdot\left(k_{0} \sigma\right)^{2}}\right] \\ \omega_{{\mathrm{T}}}(i, j)=1-\omega_{{\mathrm{B}}}(i, j) \end{array}\right. $$ (10)

    式中:μ为红外低频部分的均值;σ为红外低频部分的标准差;k0为自适应调节参数,取值范围一般为1~3,本文取k0=2。

    将红外低频部分的背景隶属度、目标隶属度与ω1ω2相结合,形成修正的红外权重因子λ1和可见光权重因子λ2用于融合低频部分,λ1λ2分别定义如下:

    $$ \left\{ {\begin{array}{*{20}{l}} {{\lambda _1}(i, j) = \frac{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j)}}{{{\omega _{\rm{T}}}(i, j){\omega _{\rm{1}}}(i, j) + {\omega _{\rm{B}}}(i, j){\omega _{\rm{2}}}(i, j)}}} \\ {{\lambda _2}(i, j) = 1 - {\lambda _1}(i, j)} \end{array}} \right. $$ (11)

    其次,区域能量反映着图像中像素点的局部变化强度,可以较好地表现出红外与可见光图像各自的信息特征。图像低频部分区域能量RE定义为:

    $$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{I}}}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} {\boldsymbol{w}}_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{L}}}^{{\mathrm{I}}}(i+x, j+y)\right]^{2} \end{array} $$ (12)

    式中:w0为窗口掩膜矩阵,越靠近中心点表明其权值相对越大,本文取${\boldsymbol{w}}_{0}=\frac{1}{16}\left[\begin{array}{l} 1 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 1 \end{array}\right]$。

    基于上述的区域能量,设定双阈值T1T2与其结合,进而判断融合图像低频部分中的某像素点属于明显的红外图像或可见光图像特征信息。具体表述为:

    记${\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)=\frac{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)}{{\mathrm{RE}}_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j)}$,若RELX(i, j)大于T1,表明该像素点属于较明显的红外信息,则其低频融合系数等价于红外图像低频系数;相应地,若RELX(i, j)小于T2,表明该像素点属于较明显的可见光信息,则其低频融合系数等价于可见光图像低频系数。其中,T1T2为不同的常数,且需保证T1>1>T2,在经过多次融合实验后,当T1T2分别取T1=12、T2=0.75时,本文融合算法具有较优的融合效果。

    因此,低频部分融合系数DLF(i, j)可以表示为:

    $$ D_{{\mathrm{L}}}^{{\mathrm{F}}}(i, j)=\left\{\begin{array}{l} D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)>T_{1} \\ D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;{\mathrm{RE}}_{{\mathrm{L}}}^{X}(i, j)<T_{2} \\ \lambda_{1}(i, j) D_{{\mathrm{L}}}^{{\mathrm{A}}}(i, j)+\lambda_{2}(i, j) D_{{\mathrm{L}}}^{{\mathrm{B}}}(i, j), \text { otherwise } \end{array}\right. $$ (13)

    高频部分主要是源图像的细节,反映着图像的突变特性。常见的融合规则如区域能量取大、绝对值取大规则等虽然简单高效,但忽略了图像像素间的相关性,容易导致融合图像纹理细节或边缘信息的丢失,造成图像扭曲[17]。SCM是PCNN模型的简化版本,具有全局耦合性、同步脉冲性和计算量小等优势,能够较好地突出图像的细节部分。为了保留源图像的细节,本文提出基于ADCSCM的融合规则来指导高频部分进行融合,其外部输入激励为区域能量与边缘测度指标相乘,链接强度由改进区域平均梯度自适应调整。ADCSCM在继承SCM的优点外,还能够弥补SCM对图像暗部区域细节提取能力较弱的缺陷,反映出图像的突变特性、加快图像融合的速度。

    在ADCSCM中,记外部输入激励为Sijm,链接强度为βijm,其中上标m=1, 2,表示为通道1、通道2,其中通道1与红外图像A高频部分相对应,通道2与可见光图像B高频部分相对应。

    由ADCSCM的工作原理可知,外部输入激励Sijm的选取十分重要,直接影响着高频部分的融合结果。当前,常见外部输入激励选取方法是通过单个区域特征,如区域能量、改进空间频率等确定,但由此容易导致融合的图像缺乏细节和边缘等信息。因此,本文提出外部输入激励Sijm由区域能量和边缘测度指标共同选取,可以使融合图像保持着更多的细节和边缘信息。图像高频部分区域能量RE和边缘测度指标EM分别定义为:

    $$ \begin{array}{l} {\mathrm{RE}}_{{\mathrm{H}}}^{I}(i, j)=\sum\limits_{x=-M}^{M} \sum\limits_{y=-N}^{N} w_{0}(x+M+1, y+N+1) \\ \cdot\left[D_{{\mathrm{H}}}^{I}(i+x, j+y)\right]^{2} \end{array} $$ (14)

    式中:DHI(i, j)上标I可取A、B,表示红外图像或可见光图像高频部分。

    $$ \begin{array}{r} {\mathrm{EM}}^{I}(i, j)=\left({\boldsymbol{F}}_{1} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j)+\left({\boldsymbol{F}}_{2} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \\ +\left({\boldsymbol{F}}_{3} * D_{{\mathrm{H}}}^{I}\right)^{2}(i, j) \end{array} $$ (15)

    式中:*表示卷积;F1为垂直方向模板;F2为水平方向模板;F3为对角线方向模板。为了有效地计算边缘信息,将F1F2F3取为${\boldsymbol{F}}_{1}=\left[\begin{array}{ccc} -1 & -1 & -1 \\ 2 & 2 & 2 \\ -1 & -1 & -1 \end{array}\right]$,${\boldsymbol{F}}_{2}=\left[\begin{array}{lll} -1 & 2 & -1 \\ -1 & 2 & -1 \\ -1 & 2 & -1 \end{array}\right]$,${\boldsymbol{F}}_{3}=\left[\begin{array}{ccc} -1 & 0 & -1 \\ 0 & 4 & 0 \\ -1 & 0 & -1 \end{array}\right]$。

    通过上述边缘测度指标EM,能够在一定程度上反映出高频部分在垂直、水平和对角线方向的边缘信息[18]。联合边缘测度指标和区域能量作为ADCSCM的外部输入激励,能够反映出红外与可见光图像高频部分系数不同的特性。表示为:

    $$ S_{i j}^{m}={\rm{RE}}_{\mathrm{H}}^{I}(i, j) \cdot {\rm{EM}}_{\mathrm{H}}^{I}(i, j) $$ (16)

    图像中像素点与ADCSCM中神经元互相对应,图像的区域平均梯度可以敏锐地感知细节差异,反映着图像的纹理信息变化情况。ADCSCM中每个神经元的链接强度并不相同,通过区域平均梯度自适应调整链接强度,恰好对应着不同神经元的链接特性。为了更好地保留高频部分有效信息,本文增加主对角线和副对角线处方向的梯度计算[19],形成改进区域平均梯度IAG。IAG的数学表达式为:

    $$ {\rm{IAG}}^{I}(i, j)=\frac{1}{P \times Q} \sum\limits_{i=1}^{P} \sum\limits_{j=1}^{Q}\left[\left(G_{1}^{I}(i, j)+G_{2}^{I}(i, j)+\right.\right.\\\left.\left.G_{3}^{I}(i, j)+G_{4}^{I}(i, j)\right) / 4\right]^{1 / 2} $$ (17)
    $$ G_{1}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j)\right]^{2} $$ (18)
    $$ G_{2}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i, j+1)\right]^{2} $$ (19)
    $$ G_{3}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j+1)\right]^{2} $$ (20)
    $$ G_{4}^{I}(i, j)=\left[D_{\mathrm{H}}^{I}(i, j)-D_{\mathrm{H}}^{I}(i+1, j-1)\right]^{2} $$ (21)

    式(17)~(21)中:P×Q表示区域大小,本文取为3×3,G1I(i, j)、G2I(i, j)、G3I(i, j)、G4I(i, j)分别为当前区域内的垂直、水平、主对角和副对角的梯度。

    同时,本文提出链接强度βijm由IAG自适应调整,但又不完全依赖于IAG,能够更好地表现出神经元之间的链接关系,反映出红外与可见光图像高频部分中不同像素点对应的神经元点火先后。链接强度βijm表示为:

    $$ \beta_{i j}^{m}=\beta_{0}+\frac{1}{1+\exp \left[-{\rm{IAG}}^{I}(i, j)\right]} $$ (22)

    式中:β0为初始链接强度,本文取β0=2.0。

    因此,本文提出的一种基于ADCSCM的融合规则具体可分为以下4步:

    步骤1:利用式(14)~(16)计算出红外与可见光图像高频部分各自的外部输入激励,同时利用式(17)~ (22)计算出红外与可见光图像高频部分各自的链接强度;

    步骤2:定义初始状态$U_{i j}^{\mathrm{A}}(0)=U_{i j}^{\mathrm{B}}(0)=U_{i j}(0)=0$,$E_{i j}(0)=X_{i j}(0)=Y_{i j}(0)=0$,同时设置ADCSCM的最大迭代次数为N0

    步骤3:通过式(1)~(6)进行N0次迭代,计算N0次迭代后的内部活动项$U_{i j}^{\mathrm{A}}\left(N_{0}\right)$、$U_{i j}^{\mathrm{B}}\left(N_{0}\right)$和Uij(N0);

    步骤4:通过ADCSCM获取的高频部分融合系数DHF(i, j)选取规则为:

    $$ D_{\mathrm{H}}^{\mathrm{F}}(i, j)=\left\{\begin{array}{ll} D_{\mathrm{H}}^{\mathrm{A}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{A}}\left(N_{0}\right) \\ D_{\mathrm{H}}^{\mathrm{B}}(i, j) & U_{i j}\left(N_{0}\right)=U_{i j}^{\mathrm{B}}\left(N_{0}\right) \end{array}\right. $$ (23)

    为了检验本文算法的融合性能,选取CVT[20]、NSCT[21]、GTF[22]、NSCT-PCNN[23]、NSST- PAPCNN[24]、MS-WLS[3]、MLGCF[8]共7种融合算法与本文算法进行融合对比实验。实验中,选取4组经典的红外与可见光图像进行融合,分别记为“Camp”、“Lake”、“Flower”和“Bench”图像。实验相关环境为:Intel Core i7-9750H,CPU主频为2.60 GHz,内存为16 GB,Windows10操作系统和Matlab 2019a软件仿真平台。

    在融合过程中,本文算法中的实验相关参数设置如下:NSST分解中,选取“maxflat”为NSST分解滤波器,分解尺度为4级,分解方向数为{4, 4, 8, 8};ADCSCM中,N0=30,远小于传统PCNN模型中所需的200次迭代次数,Wgh与传统SCM的取值保持一致,即${\boldsymbol{W}}=\left[\begin{array}{ccc} 0.707 & 1 & 0.707 \\ 1 & 0 & 1 \\ 0.707 & 1 & 0.707 \end{array}\right]、g=0.6 、h=20$。

    图 3~6为4组经典的红外与可见光图像在8种不同的融合算法下所得到的融合结果。

    图  3  “Camp”图像的融合结果
    Figure  3.  Fusion results on "Camp" image
    图  4  “Lake”图像的融合结果
    Figure  4.  Fusion results on "Lake" image
    图  5  “Flower”图像的融合结果
    Figure  5.  Fusion results on "Flower" image
    图  6  “Bench”图像的融合结果
    Figure  6.  Fusion results on "Bench" image

    首先,通过人眼视觉系统对上述4组红外与可见光图像的融合结果进行主观分析。

    图 3为“Camp”图像的融合结果。CVT和NSCT算法的融合图像对比度和清晰度偏低,纹理细节损失较多,且人物目标处存在伪影现象;GTF算法的融合图像人物目标部分丢失且整体模糊,严重缺失可见光细节;NSCT-PCNN和NSST-PAPCNN算法的融合图像人物目标较清晰,但严重缺失纹理细节和围栏信息,且NSST-PAPCNN算法的融合图像边缘轮廓十分模糊;MS-WLS和MLGCF算法的融合图像人物目标较清晰,纹理细节较为丰富,但缺失了部分可见光细节;而本文算法的融合图像人物目标和边缘轮廓清晰,纹理细节丰富,灌木、围栏等背景信息保留完整。

    图 4为“Lake”图像的融合结果。CVT、NSCT和GTF算法的融合图像对湖面信息表征出不同程度地丢失,未能成功地综合可见光图像的湖面信息;NSCT-PCNN算法的融合图像林木信息茂盛,但湖面存在着区域污染,NSST-PAPCNN算法的融合图像整体偏亮,右上角字母处较模糊;MS-WLS和MLGCF算法的融合图像整体对比度偏低,湖面和草地信息较丰富;本文算法的融合图像整体对比度适中,清晰度高,较好地结合了红外与可见光图像的湖面和草地信息。

    图 5为“Flower”图像的融合结果。8种算法的边缘轮廓清晰、纹理细节较丰富,但CVT和NSCT算法的融合图像红外目标处存在着伪影;GTF、NSCT-PCNN和NSST-PAPCNN算法的融合图像清晰度较低;本文算法的融合图像红外目标更突出,整体清晰度和视野信息保真度更高。

    图 6为“Bench”图像的融合结果。CVT和NSCT算法的融合图像缺乏纹理细节,人物目标处存在伪影;GTF算法的融合图像严重缺失可见光图像里的信息;NSCT-PCNN算法的融合图像人物目标较突出,但水面处存在着区域污染;NSST-PAPCNN算法的融合图像人物目标模糊,但缺乏背景信息;MS-WLS和MLGCF算法的融合图像视野信息保真度较高,缺乏背景信息;本文算法的融合图像人物目标突出,可见光背景信息丰富,边缘轮廓清晰。

    故综合对比图 3~6,本文算法的融合图像主观视觉效果表现最佳,更符合人眼视觉系统的输出。

    本文选用互信息(Mutual Information, MI)、信息熵(Information Entropy, IE)、空间频率(Spatial Frequency, SF)、标准差(Standard Deviation, SD)以及视觉信息保真度(Visual Information Fidelity for Fusion, VIFF)共5项指标对4组红外与可见光图像的融合结果进行客观评价,5项客观指标为正项指标,其值越大表明着融合效果相对越好。表 1为4组融合图像在5项指标下的客观评价结果,最优值已通过加粗标出。

    表  1  4组融合图像的客观评价结果
    Table  1.  The objective evaluation results of four groups of fused images
    Fused
    images
    Evaluation indexes Algorithms
    CVT NSCT GTF NSCT-PCNN NSST-PAPCNN MS-WLS MLGCF Proposed
    Camp MI 1.3967 1.4703 1.9961 1.6344 1.9792 1.5511 1.7092 2.2472
    IE 6.5574 6.5693 6.6812 6.8681 6.8064 6.6214 6.6152 7.1566
    SF 12.2275 12.2860 8.8771 11.6638 10.5236 13.2651 12.7512 12.9934
    SD 27.1526 27.3415 27.0939 31.4014 30.2752 28.5545 29.2437 38.8731
    VIFF 0.3606 0.4256 0.2257 0.3611 0.3716 0.4692 0.4587 0.4724
    Lake MI 1.5413 1.6058 2.0167 2.1878 2.2921 2.0636 2.3721 3.9960
    IE 6.6745 6.6764 6.6217 7.2516 7.1673 7.0032 7.0096 7.4731
    SF 11.8183 11.7529 9.9321 12.2781 8.7916 12.2331 11.2376 12.1353
    SD 27.1584 27.5441 40.4490 39.8795 43.4509 35.9000 35.0912 49.5824
    VIFF 0.3260 0.3687 0.1731 0.3967 0.2784 0.4265 0.3977 0.4040
    Flower MI 3.3300 3.5893 3.1504 3.6886 3.9911 3.8955 3.9984 4.3305
    IE 6.5636 6.5577 6.2639 6.7200 6.8380 6.6259 6.6323 6.8793
    SF 20.6859 21.3924 18.3972 20.3276 19.6811 21.6768 22.4519 22.1945
    SD 36.2790 37.3107 36.3495 41.2683 41.5738 38.8609 39.5655 42.9559
    VIFF 0.7544 0.8101 0.6731 0.8449 0.8452 0.7901 0.7841 0.9164
    Bench MI 1.7790 1.8198 1.5464 3.5589 2.3970 2.3330 2.8215 3.9774
    IE 6.9686 6.9609 6.7781 7.4965 7.3619 7.1646 7.1909 7.6089
    SF 23.1776 23.2413 21.8150 23.4501 21.3190 26.3591 23.4811 23.6494
    SD 34.9933 35.2022 30.8383 59.3188 50.2010 48.4621 49.5238 63.2357
    VIFF 0.2333 0.2529 0.1260 0.2711 0.2646 0.4007 0.3662 0.2882
    下载: 导出CSV 
    | 显示表格

    观察表 1,通过对比4组图像上8种融合算法各自的5项客观指标值,可以发现本文算法的SF在“Camp”图像上稍低于MS-WLS算法,在“Lake”图像上低于NSCT-PCNN和MS-WLS算法,在“Flower”图像上稍低于MLGCF算法,在“Bench”图像上稍低于MS-WLS算法;VIFF在“Lake”图像上略低于MS-WLS算法,在“Octec”图像上低于MS-WLS和MLGCF算法,其余两组图像上,本文算法的VIFF均为最优值;此外,本文算法对MI、IE和SD共3项指标值的提升效果显著,在4组融合图像上始终为最优值,并在IE和SD两项指标上远高于其他7种融合算法。综合上述对4组融合图像的5项客观指标值进行分析,本文算法的整体表现最佳。综合主观视觉分析和客观指标评价而言,本文算法的融合性能最佳,优于其他7种传统或当前流行的融合算法。

    本文提出了一种基于高斯模糊逻辑和ADCSCM的红外与可见光图像融合算法。利用NSST的平移变换性、各向异性等特点将红外与可见光图像分解为低频和高频部分,通过自适应加权法则指导低频部分进行融合,同时通过基于ADCSCM的融合规则指导高频部分进行融合。实验结果表明,本文算法在主观视觉和客观指标上均表现更优,其融合图像更为清晰,红外目标突出,纹理细节和边缘信息也更丰富,同时能够获得较高的互信息、信息熵和标准差,是一种有效的红外与可见光图像融合算法。

  • 图  1   龋齿样品可见光照片

    Figure  1.   Visible light photograph of caries samples

    图  2   反射式太赫兹时域光谱成像系统原理示意图

    Figure  2.   Schematic diagram of the THz TDS system in the reflection mode

    图  3   牙本质、牙本质龋、牙釉质表面的平均太赫兹时域波形(左)及频谱(右)

    Figure  3.   Mean terahertz time domain waveform(left) and spectrum(right) of surfaces of dentin, caries and enamel

    图  4   01~03号样品反射式太赫兹光谱成像结果

    Figure  4.   Reflection terahertz spectral images of sample No.01-03

    图  5   Haar小波梯度域重建融合算法流程

    Figure  5.   Flow chart of Haar wavelet gradient domain reconstruction fusion algorithm

    图  6   01-03样品图像融合结果

    Figure  6.   Image fusion results of sample 01-03

    表  1   龋齿样品的融合前后太赫兹图像评价指标对比

    Table  1   Terahertz image evaluation index comparison of caries samples before and after fusion

    Sample Image IE AG CON
    01 0.996THz 6.1947 0.0136 12.3335
    1.244THz 6.5509 0.0215 27.3449
    1.311THz 6.2496 0.0178 21.4012
    Fusion image 7.0893 0.0266 35.4942
    02 0.995THz 6.9376 0.0223 31.0891
    1.147THz 7.1184 0.0249 36.5763
    1.375THz 6.7764 0.0264 41.5308
    Fusion image 7.4126 0.0319 50.7427
    03 0.964THz 7.1886 0.0232 29.7532
    1.030THz 7.1353 0.0206 24.6868
    1.344THz 7.0889 0.0280 42.8916
    Fusion image 7.6641 0.0399 73.7251
    下载: 导出CSV
  • [1] 陈智, 卢展民, Falk Schwendicke, 等. 龋损管理: 龋坏组织去除的专家共识[J]. 中华口腔医学杂志, 2016, 51(12): 712-716. DOI: 10.3760/cma.j.issn.1002-0098.2016.12.003

    CHEN Z, LU Z M, Falk S, et al. Managing carious lesions: consensus recommendations on carious tissue removal[J]. Chinese Journal of Stomatology, 2016, 51(12): 712-716. DOI: 10.3760/cma.j.issn.1002-0098.2016.12.003

    [2]

    Maeng Youjin, Lee Hyungsuk, Lee Eunsong, et al. Noninvasive detection of microleakage in all-ceramic crowns using quantitative light-induced fluorescence technology[J]. Photodiagnosis and Photodynamic Therapy, 2020, 30: 101672. DOI: 10.1016/j.pdpdt.2020.101672

    [3]

    Brouwer F, Askar H, Paris S, et al. Detecting secondary caries lesions: a systematic review and meta-analysis[J]. J. Dent Res. , 2016, 95(2): 143-151. DOI: 10.1177/0022034515611041

    [4]

    FAN Shuting, HE Yuezhi, Benjamin S Ung, et al. The growth of biomedical terahertz research[J]. Journal of Physics D: Applied Physics, 2014, 47(37): 374009. DOI: 10.1088/0022-3727/47/37/374009

    [5] 张卫方, 杜潮海, 刘濮鲲. 太赫兹技术在医学成像方面的应用和进展[J]. 标记免疫分析与临床, 2019, 26(9): 1603-1608. https://www.cnki.com.cn/Article/CJFDTOTAL-BJMY201909036.htm

    ZHANG W F, DU C H, LIU P K. The applications and developments of teraherz radiation in medical imaging[J]. Labeled Immunoassays and Clinical Medicine, 2019, 26(9): 1603-1608. https://www.cnki.com.cn/Article/CJFDTOTAL-BJMY201909036.htm

    [6] 严芷瑶, 黄婉霞, 黄青青, 等. 太赫兹医学成像研究进展[J]. 光电工程, 2020, 47(5): 79-89.

    YAN Zhiyao, HUANG Wanxia, HUANG Qingqing, et al. Research progress of terahertz medical imaging[J]. Opto-Electronic Engineering, 2020, 47(5): 190721.

    [7]

    Daniela S Lopes, Wellington S Souza, Renato E de Araujo, et al. Terahertz time-domain spectroscopy of healthy and carious dental tissues[C]//The European Conference on Lasers and Electro-Optics, 2019: 1-1(DOI: 10.1109/CLEOE-EQEC.2019.8871841).

    [8]

    Karagoz B, Kamburoglu K, Altan H. Terahertz pulsed imaging for the monitoring of dental caries: a comparison with X-ray imaging[C]//Proceedings of SPIE, 2017, 10417P(https://doi.org/10.1117/12.2285991).

    [9]

    Kamburoğlu Kıvanç, Karagöz Burcu, Altan Hakan, et al. An ex vivo comparative study of occlusal and proximal caries using terahertz and X-ray imaging[J]. Dento Maxillo Facial Radiology, 2019, 48(2): 20180250. DOI: 10.1259/dmfr.20180250

    [10]

    Hampton P, Agathoklis P, Bradley C. A new wave-front reconstruction method for adaptive optics system using wavelets[J]. IEEE Journal of Selected Topics in Signal Processing, 2008, 2(5): 781-792. DOI: 10.1109/JSTSP.2008.2006386

    [11]

    Sevcenco I S, Hampton P J, Agathoklis P. Seamless stitching of images based on a Haar wavelet 2D integration method[C]//17th International Conference on Digital Signal Processing (DSP), 2011: 1-6(DOI: 10.1109/ICDSP.2011.6004934).]

    [12]

    Ioana S Sevcenco, Peter J Hampton, Panajotis Agathoklis. A wavelet based method for image reconstruction from gradient data with applications[J]. Multidimensional Systems and Signal Processing, 2015, 26(3): 717-737.

    [13]

    YAN Qing, XU Yi, YANG Xiaokang, et al. Single image super resolution based on gradient profile sharpness[J]. IEEE Transactions on Image Processing, 2015, 24(10): 3187-3202. DOI: 10.1109/TIP.2015.2414877

    [14] 杨艳春, 李娇, 王阳萍. 图像融合质量评价方法研究综述[J]. 计算机科学与探索, 2018, 12(7): 1021-1035. https://www.cnki.com.cn/Article/CJFDTOTAL-KXTS201807002.htm

    YANG Yanchun, LI Jiao, WANG Yangping. Review of image fusion quality evaluation methods[J]. Journal of Frontiers of Computer Science and Technology, 2018, 12(7): 1021-1035. https://www.cnki.com.cn/Article/CJFDTOTAL-KXTS201807002.htm

    [15] 王跃华, 陶忠祥. 红外与可见光图像融合质量评价方法综述[J]. 红外, 2012, 33(6): 7-11. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI201206003.htm

    WANG Y, TAO Z. Overview of quality evaluation methods of fused infrared and visible images[J]. Infrared, 2012, 33(6): 7-10. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI201206003.htm

  • 期刊类型引用(1)

    1. 单幼芳. 基于深度学习算法的太赫兹人体安检图像处理技术研究. 电脑编程技巧与维护. 2024(07): 127-129 . 百度学术

    其他类型引用(1)

图(6)  /  表(1)
计量
  • 文章访问数:  183
  • HTML全文浏览量:  45
  • PDF下载量:  27
  • 被引次数: 2
出版历程
  • 收稿日期:  2021-06-01
  • 修回日期:  2021-06-28
  • 刊出日期:  2023-08-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日