Hyperspectral RX Anomaly Detection Algorithm with Visual Attention Mechanism
-
摘要: 视觉注意机制具有快速引导关注到重点区域的特性,将其引入高光谱图像异常检测中具有可行性。本文从采样方式、波段选取、融入局部光谱特征3方面构建更适用于计算高光谱图像显著性的视觉注意机制模型。针对经典的基于高斯统计分布假设的RX异常检测算法在背景参数估计中易受潜在异常干扰的问题,利用视觉显著性结果对原图像进行高斯加权,在加权后图像中进行背景均值与协方差的重新估算,进而使用更精确的背景参数对原图像进行RX异常检测。在5个经典数据上的实验结果表明,本文方法有效地表现了潜在的异常目标,改进的RX异常检测算法具有更高的检测精度与更低的虚警率。Abstract: A visual attention mechanism (VAM) can quickly highlight region-of-interest targets; therefore, it is reasonable to introduce visual attention into hyperspectral image (HSI) anomaly detection tasks. By adjusting a bottom-up VAM model in three aspects, namely sampling method, band selection, and local spectral features, a more applicable VAM model for calculating the saliency of hyperspectral images was constructed. The resulting VAM is called bottom-up hyperspectral saliency map (BUHS). To solve the problem of background parameter estimation in the RX(Reed-Xiaoli) algorithm, which is susceptible to interference, BUHS was used as a Gaussian weighting parameter for the original image, in which new parameters of the RX anomaly method were calculated. Compared to the traditional RX, the background parameters are more accurate. The experimental results on five HSI datasets show that the proposed method can effectively identify potential anomaly targets and improve the RX algorithm with a higher detection accuracy and lower false alarm rate.
-
Keywords:
- hyperspectral image /
- anomaly detection /
- visual attention mechanism /
- saliency /
- RX
-
0. 引言
21世纪是人类对海洋资源进行开发与利用的新时代,海洋对国家整体安全的保护、经济社会的发展具有重要的战略意义,以海洋为载体和纽带的市场、文化等合作越来越密切,全球的海洋强国和周边国家都在新的形势下制订了自己的海洋战略与计划,加速向海洋布局。水下图像作为水下智能获取信息最直观、最高效的方式,在探测的过程中发挥着不可替代的作用。由于水下复杂的物理特性,当光在水中传播时,不同颜色的波长会遭受不同程度的衰减从而引起水下图像的颜色失真问题[1]。另外,悬浮颗粒(诸如浮游植物)会散射传播在物体与相机之间的光,导致图像呈现低对比度和模糊效果[2]。这些典型的退化对水下任务提出挑战。高质量的水下图像为目标检测和识别等任务提供基础支撑,在水下机器人视觉导航、海洋生物识别、海洋文化推广、渔业、生态监测、油气开发等领域有着广泛的应用。因此,研究一种有效的水下图像增强算法具有重要的意义。
为推动水下图像增强技术的发展,国内外学者纷纷开展对水下增强技术的研究与探讨。水下图像增强技术大致可分为两类:第一类是基于非物理模型的方法,该类算法通过对水下图像处理来提高像素值,加强对比度等,从而实现良好的视觉效果。第二类是基于物理模型的图像恢复方法,该方法充分考虑了水下图像的降质过程。基于非物理模型的方法如直方图均衡化、Retinex分解、图像融合等,例如,Zhou等人[3]提出了一种多区间子直方图均衡化方法,该方法对每个子直方图进行直方图均衡化,以提高图像对比度。Zhuang等人[4]提出了一种超拉普拉斯反射先验启发的Retinex变分模型来增强水下图像。Ancuti等人[5]引入一种新的红色通道补偿算法对权重进行修正,并采用金字塔融合策略来融合伽马校正图像和锐化图像,该技术补偿了水下图像由于光的散射引起的颜色失真,有效地提高颜色的真实性,同时提高整体对比度。非物理模型方法可以在一定程度上增强水下退化图像的视觉效果。然而,由于未考虑光学成像模型,忽略了退化与场景距离之间的关系,在一些复杂的水下场景中导致图像曝光不足的暗区域增强效果不佳。
基于物理模型的水下图像增强方法通过建立数学模型,估计模型参数,对退化过程进行逆处理,最终得到高质量的水下图像。由于光在雾中传播与水下传播的相似性,He等人[6]将暗通道先验(Dark Channel Prior,DCP)原理应用于图像去雾,并在大气中取得了出色的效果。然而,由于该方法忽略了水中光的波长依赖性吸收,无法恢复水下图像的可见性。Drews等人[7]提出一种改进的暗通道先验水下图像增强方法,通过观察水下图像红通道中吸收率的相关性,实现对图像的恢复和深度估计,该方法比传统DCP方法能够更好地估计透射率,但是当使用人造光源进行照明时此方法无效。Ma等人[8]提出了暗通道先验和灰度世界方法相结合的水下图像去模糊方法,但得到的图像亮度较低。Berman等人[9]提出一种基于雾霾线的水下图像颜色恢复方法。该方法将图像的复原问题归结为单幅图像的去模糊问题,通过估计蓝红和蓝绿两个额外全局参数的衰减率,从而降低问题的复杂性。Muniraj等人[10]通过使用每个通道的强度差异来估计透射图的深度,但是处理步骤复杂。Xu等人[11]引入了基于暗通道先验的深度颜色相关的概念,嵌入了多尺度去雾和去噪模块,有效解决图像模糊和噪声干扰。上述方法中,颜色校正的效果不突出,同时未考虑到水下复杂光照情况下只采用暗通道先验会导致的透射率估计不准确的问题。
随着深度学习技术的发展,以深度学习为基础的水下图像增强技术得到越来越多的关注。Liu等人[12]提出了一种基于条件生成对抗网络(GAN)的多尺度特征融合网络,用于水下图像色彩校正。首先提取多尺度特征,然后用全局特征增强每个尺度的局部特征。这种设计经过验证可以促进更有效和更快的网络学习,从而在色彩校正和细节保留方面获得更好的性能。Li等人[13]提出了一种轻量级CNN模型(水下卷积神经网络,UWCNN),该模型利用水下场景和卷积神经网络的先验知识来学习退化图像和清晰图像之间的差异,处理水下图像和视频任务。Zhou等人[14]提出了一种新颖的跨域增强网络(CVE-Net),它使用高效特征对齐来更好地利用相邻特征。尽管现有的基于深度学习的水下图像增强方法已经取得了显著的改进,但它们仍然需要受到可用数据集的限制。同时一些深度学习方法无法平衡好校正色偏和增强清晰度两个方面。
针对以上存在的问题,本文提出了基于颜色校正和暗亮双通道先验的水下图像增强算法。将水下图像增强算法分为3个子问题:颜色校正、低对比度增强和可见度恢复。首先,针对水中介质对光的选择性吸收作用导致色偏,提出了基于标准差比的颜色补偿算法;其次,针对散射引起的对比度下降的问题,利用锐化算法增强水下图像的对比度;针对水中介质对光的散射作用引起的能见度下降的问题,提出一种结合亮暗双通道的能见度恢复算法,以增强水下增强图像的能见度;最后,将对比度增强图像和可见度恢复图像作为两幅输入图像,分别计算他们的拉普拉斯权重、局部对比度权重、饱和度权重和曝光权重,通过多尺度融合实现水下对比度增强和可见性恢复图像之间的互补优势。最后结合主客观评价,以验证所提方法的有效性。
1. 水下成像模型
在水下环境中,光的传播过程与在空气中类似。根据Jaffe-McGlamery模型,如图 1所示,当光线在水下场景中传播时,相机主要接收由3个分量产生的光线:直射分量、前向散射分量、后向散射分量[15]。直射分量,即相机直接接收的光能量;前向散射分量,指经由微小颗粒和水体或水流不可避免的运动引起散射后达到相机的光;后向散射分量,指由浮动颗粒部分反射的环境光。水下成像过程可以被表示为这3个分量的线性叠加[16],该模型可以表示为:
$$ E_{\mathrm{T}}(x)=E_{\mathrm{d}}(x)+E_{\mathrm{f}}(x)+E_{\mathrm{b}}(x)$$ (1) 根据文献[17],大部分退化是由后向散射引起的,这意味着前向散射可以忽略不计。直接散射定义为:
$$ E_{\mathrm{d}}(x)=J(x) t(x)=J(x) \mathrm{e}^{-\beta d(z)} $$ (2) 式中:J(x)是物体的场景辐射;d(z)是视觉设备与物体之间的距离;β是衰减系数;e-βd(z)是水下介质中的透射率。
后向散射分量是由物体表面反射的自然光或人造光引起的,会导致水下图像中的颜色失真。后向散射分量Eb(x)表示为:
$$ E_{\mathrm{b}}(x)=A(1-t(x)) $$ (3) 因此,可以将式(1)中所示的成像模型改写为:
$$ I(x)=J(x) t(x)+A(1-t(x)) $$ (4) 式中:x表示像素,I(x)是观察到的模糊图像;J(x)是要恢复的图像;A是背景光,t(x)∈[0, 1]是介质透射图,其表示场景辐射到达相机的百分比。
2. 本文算法
本文算法主要由3部分组成,首先提出基于标准差比的颜色补偿算法,得到颜色校正后图像;其次对该图像分别进行低对比度增强和去模糊,最后将对比度增强图像和可见度恢复图像进行融合,得到最终增强图像。本文算法的流程图如图 2所示。
2.1 基于标准差比的颜色补偿算法
由灰度世界假设算法[5]可知,图像的每个通道在衰减之前具有相似的灰度均值和直方图分布。由于水中介质对不同颜色光的吸收作用存在差异,这导致水下图像的各个通道都经历了不同程度的衰减。然而,传统的灰度世界方法并没有充分考虑不同通道之间的衰减差异,这就可能导致对于颜色的过度或不足校正,进而不能有效解决颜色失真的问题。为了有效解决颜色失真的问题,本文引入亮度通道作为参考通道对颜色进行初步补偿,亮度通道为像素强度最大的通道,其计算过程定义为:
$$ I_{\mathrm{l}}(i, j)=\max \left\{I_{\mathrm{r}}(i, j), \quad I_{\mathrm{g}}(i, j), \quad I_{\mathrm{b}}(i, j)\right\} $$ (5) 式中:Il(i, j)表示亮度;Ir,Ig,Ib分别表示红绿蓝三通道。计算出每个通道的平均通道值:
$$ {\bar I_c} = \frac{1}{{M \times N}}\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {{I_c}\left( {i,j} \right)} } ,c \in \left\{ {l,r,g,b} \right\} $$ (6) 式中:M和N分别是每个输入通道的高度和宽度,以亮度通道作为参考值,对红绿蓝三通道进行补偿。受文献[18]启发,虽然颜色通道具有相同的均值,但它们的标准差可能不同。因此,仅通过考虑平均值的差异来补偿颜色通道是不够的。在本文中,提出了一种基于标准差比的颜色补偿算法,公式表示为:
$$ \left\{ {\begin{array}{*{20}{c}} {I_{\text{r}}^C\left( {i,j} \right) = {I_{\text{r}}}\left( {i,j} \right) + \frac{{{\sigma _{{I_{\text{l}}}}}}}{{{\sigma _{{I_{\text{r}}}}}}} \times \left( {{{\bar I}_{\text{l}}} - {{\bar I}_{\text{r}}}} \right) \times \left( {1 - {{\bar I}_{\text{r}}}} \right) \times {I_{\text{l}}}\left( {i,j} \right)} \\ {I_{\text{g}}^C\left( {i,j} \right) = {I_{\text{g}}}\left( {i,j} \right) + \frac{{{\sigma _{{I_{\text{l}}}}}}}{{{\sigma _{{I_{\text{g}}}}}}} \times \left( {{{\bar I}_{\text{l}}} - {{\bar I}_{\text{g}}}} \right) \times \left( {1 - {{\bar I}_{\text{g}}}} \right) \times {I_{\text{l}}}\left( {i,j} \right)} \\ {I_{\text{b}}^C\left( {i,j} \right) = {I_{\text{b}}}\left( {i,j} \right) + \frac{{{\sigma _{{I_{\text{l}}}}}}}{{{\sigma _{{I_{\text{b}}}}}}} \times \left( {{{\bar I}_{\text{l}}} - {{\bar I}_{\text{b}}}} \right) \times \left( {1 - {{\bar I}_{\text{b}}}} \right) \times {I_{\text{l}}}\left( {i,j} \right)} \end{array}} \right. $$ (7) 式中:$ {\sigma _{{I_k}}} $, k∈{l, r, g, b}表示对应的标准差。
进一步采用线性拉伸方法做简单有效的直方图拉伸,使所用像素覆盖图像的整个动态范围。其线性拉伸方法定义为:
$$ I_c^{{\text{CR}}} = \left( {I_c^C - I_c^{\min }} \right) \times \frac{{I_o^{\max } - I_o^{\min }}}{{I_c^{\max } - I_c^{\min }}},c \in \left\{ {{\text{r,g,b}}} \right\} $$ (8) 经过颜色通道补偿后,图像的亮度可能会降低,需要引入伽马校正提高图像的亮度。然而,传统的伽马校正方法采用固定的参数γ,当γ<1时,图像整体亮度增加,当γ>1时,图像整体亮度减少。水下图像存在光照不均匀的情况,若采用传统的伽马校正虽然能校正曝光不足图像,但是会导致一些图像过度曝光,为适用于水下不同图像,本文采用自适应权重伽马校正[19]提高图像的整体亮度:
$$ T\left( l \right) = {l_{\max }}{\left( {\frac{l}{{{l_{\max }}}}} \right)^{\gamma \left( l \right)}} = {l_{\max }}{\left( {\frac{l}{{{l_{\max }}}}} \right)^{1 - {\text{cdf}}\left( l \right)}} $$ (9) 式中:cdf(l)表示图像的累积分布函数,将其作为伽玛校正参数就能自适应地增强图像亮度,同时又避免了过度曝光的问题。经颜色校正后的结果如图 3所示。
可以看出,原始图像的灰度直方图分布较集中,且范围较窄,红通道衰减严重,经颜色校正后,直方图覆盖范围广,三通道都较均衡,图像色彩好。
2.2 低对比度增强
经过颜色校正后,还原了图像的真实颜色,但是水下图像还存在对比度和可见度低的问题。因此,利用文献[5]中提出的锐化方法,对颜色校正后的图像进行细节信息增强,得到对比度增强的图像,将该图像作为多尺度融合的输入图像,其计算表达式如下:
$$ I_{\mathrm{s}}=(I+\psi\{I-G \otimes I\}) / 2 $$ (10) 式中:ψ{⋅}表示线性归一化算子;Is表示得到锐化后的图像;G为高斯滤波。
2.3 改进的暗亮双通道去模糊算法
由公式(4)可知,水下图像去模糊的任务是估计背景光A和透射率t(x),得到待恢复图像。由于在水下尤其是深海域,通常存在人造光和自然光的混合光照导致不均匀的光照,与白天的单一强光源(太阳光)不同,A不是一个全局向量,而是一个空间变化的映射。基于上述分析,将公式(4)改写为:
$$ I(x)=J(x) t(x)+A(x)(1-t(x)) $$ (11) 2.3.1 背景光
背景光在水下图像复原中起着至关重要的作用,它将直接影响恢复图像的质量。求取背景光的典型方法是选择图像中最亮的像素。首先在暗通道中获得最亮的前0.1%像素,再选取亮度最大的像素作为背景光。但由于采用基于场景的假设,该方法容易受到白色物体和光的干扰,导致估计不准确,恢复图像的颜色不真实。为提高准确性,采用引导滤波来求取背景光,其表达式为:
$$ A(x)=a_k I(x)+b_k, x \in w_k$$ (12) $$ E\left( {{a_k},{b_k}} \right) = \sum\limits_{x \in {w_k}} {\left( {\left( {{a_k}I\left( x \right) + {b_k} - {p_i}} \right) + \lambda a_k^2} \right)} $$ (13) $$ {a_k} = \frac{{\frac{1}{{\left| \omega \right|}}\sum\limits_{x \in {\omega _k}} {I\left( x \right){p_k} - {\mu _k}{{\bar p}_k}} }}{{\sigma _k^2 + \lambda }} $$ (14) $$ {b_k} = {\bar p_k} - {a_k}{\mu _k} $$ (15) 式中:μk和σk2是图像I在ωk内的均值和方差;|ω|是ωk窗口中包含的全部像素。
引导滤波在平滑图像的同时能够保留图像的边缘信息。在图像的不同区域存在不同的光照条件,因此引导滤波能够在保留边缘信息的同时准确估计背景光。
2.3.2 透射率
与白天捕获的模糊图像不同,水下模糊图像中通常存在人造光和自然光的混合光照导致不均匀的光照,以往的研究试图使用一个图像先验处理这两个不同的区域,如水下暗通道先验[20],但效果不佳,因为暗通道先验对白色区域和光源区域是无效的。因此,提出了一种将暗通道先验与亮通道先验(Bright Channel Prior,BCP)相结合的互补先验。直观地,光源像素经常包含具有高强度值的一个颜色通道,例如白色光中的所有颜色通道、黄色光中的红色或绿色通道、蓝色光中的蓝色通道等。在使用引导滤波获得背景光A之后,先通过应用DCP和BCP来计算对应的传输映射tDCP(x)和tBCP(x),公式如下:
$$ {t_{{\text{DCP}}}}\left( x \right) = 1 - \max \left( {\mathop {\min }\limits_{c \in \left\{ {r,g,b} \right\}} \frac{{{I^c}\left( x \right)}}{{{A^C}\left( x \right)}}} \right) $$ (16) $$ {t_{{\text{BCP}}}} = \min \left( {\mathop {\max }\limits_{c \in \left\{ {r,g,b} \right\}} \frac{{{I^c}\left( x \right) - {A^C}\left( x \right)}}{{1 - {A^C}\left( x \right)}}} \right) $$ (17) 如何将tDCP(x)和tBCP(x)融合决定着透射率估计的准确性,一种方法是用清晰的边界线分割出图像中的光源和非光源区域,然而边界附近的像素很难确定其归属。因此,提出了一种通道差异加权的方法来计算每个像素属于光源区域的概率。概率越大,表示该区域所属光源区域的可能性越大。
从数学的角度来看,可以将每个像素点的最大和最小颜色通道值之间的差异称为通道差异。在具有光源的亮区域,像素点的通道差异较大;而在暗区域像素点的通道差异较小。本文利用通道差异来定义权重,这样可以根据像素点所处的亮度区域动态调整权重,通道差异为:
$$ \eta \left( x \right) = \left( {\mathop {\max }\limits_{c \in \left\{ {r,g,b} \right\}} {I^c}\left( x \right) - \mathop {\min }\limits_{c \in \left\{ {r,g,b} \right\}} {I^c}\left( x \right)} \right) $$ (18) 经多次实验,如果选取阈值过小,则会在暗区域形成伪影;如果选取阈值过大,则部分亮区域无法被准确识别,导致透射率估计不准确,因此设定阈值为0.4。
计算像素通道差异大于阈值的概率,概率越高则说明属于光源区域的概率越大,反之属于暗区域的概率越大。将暗区域的透射率与亮区域的透射率加权融合,得到融合后的透射率为:
$$ t\left( x \right) = \eta \left( x \right){t_{{\text{D}}{\text{CP}}}}\left( x \right) + \left( {1 - \eta \left( x \right)} \right){t_{{\text{B}}{\text{CP}}}}\left( x \right) $$ (19) 考虑到时间成本与结构保持,选择引导滤波对透射率进行优化。
最终得到可见度恢复的水下图像:
$$ J\left( x \right) = \frac{{I\left( x \right) - A\left( x \right)\left( {1 - \overline {t\left( x \right)} } \right)}}{{\overline {t\left( x \right)} }} $$ (20) 式中:$ \overline {t\left( x \right)} $表示经引导滤波细化后的透射率。
2.3.3 权重图计算
为了进一步提升水下图像的细节和增强效果,图像经颜色校正后,将去模糊的图像与锐化后的图像作为融合的两幅输入图像。通过保留它们的最重要特征来产生更好的增强图像。权值包含图像的信息和特征,在融合过程中通常采用这些信息和特征。在实践中,没有一个权重图可以表示图像的所有重要特征。本文选取拉普拉斯对比度权重、局部对比度权重、饱和度权重、曝光权重4个权重。
拉普拉斯对比度权重WL测量图像的全局对比度信息,为具有边缘和纹理的区域分配高值,WL表达式如下:
$$ {W_{\text{L}}}\left( x \right) = \left\lfloor {{L^{{\text{lap}}}}\left( x \right)} \right\rfloor $$ (21) 式中:x是图像中的像素;Llap(x)表示经拉普拉斯滤波器滤波的亮度通道的值。拉普拉斯权重负责突出显示强度变化较大的区域。
然而,在水下环境中,拉普拉斯滤波器很难区分图像的平坦区域和陡峭区域,因此无法完全恢复图像的对比度。引入局部对比度权重来弥补WL的缺陷。局部对比度权重(WLC)可以在突出更多细节的情况下提高对比度,数学上表示为每个像素与其邻域像素的平均值的标准差:
$$ {W_{{\text{LC}}}} = \left\| {{L^k} - L_{{\text{lp}}}^k} \right\| $$ (22) 饱和度权重Ws通过强调高饱和度区域来显示颜色信息。为了获得该权重,需要在每个像素位置计算输入亮度和每个颜色通道之间的标准偏差。饱和权重可按下式计算:
$$ {W_{\text{s}}} = \sqrt {\frac{1}{3}\left[ {{{\left( {{R_k} - {L_k}} \right)}^2} + {{\left( {{G_k} - {L_k}} \right)}^2} + \left( {{B_k} - {L_k}} \right){}^2} \right]} $$ (23) 曝光权重WE针对水下图像的色偏问题,通过处理模糊图像的饱和度增益来减少色偏,表达式如下:
$$ {W_{\text{E}}}\left( {x,y} \right) = \exp \left( {\frac{{{{\left( {{I_k}\left( {x,y} \right) - 0.5} \right)}^2}}}{{2{\sigma ^2}}}} \right) $$ (24) 将两幅输入图像对应的4个权重图线性相加,得到各自的权重图。接下来,对上述两个权重图进行归一化,以获取两个输入图像的归一化权重图。公式如下:
$$ {\bar W_k}\left( x \right) = \frac{{{W_k}\left( x \right) + \delta }}{{\sum\limits_{k = 1}^K {{W_k}\left( x \right) + K \cdot \delta } }} $$ (25) 2.3.4 多尺度融合
基于两组输入的线性叠加会产生图像伪影和光晕[21-22]。因此,本文采用基于多尺度拉普拉斯金字塔分解的融合方法来避免这种情况。采用多尺度分解方法将拉普拉斯算子应用于每个增强的输入图像以获得金字塔的第一层。然后从第一层的水平和垂直方向提取因子2进行下采样,得到金字塔的第二层。类似地,将拉普拉斯金字塔应用于归一化权重图,使用低通高斯滤波器核函数对每一层进行滤波,得到与拉普拉斯金字塔相同层数的归一化权重图的高斯金字塔金字塔。最后,在多个尺度上独立地融合输入图像和相应的归一化权重图,表达式如下:
$$ {F_l} = \sum\limits_{k = 1}^K {{G_l}\left\{ {{W_k}\left( {x,y} \right)} \right\}{L_l}\left\{ {{W_k}\left( {x,y} \right)} \right\}} $$ (26) 式中:Fl表示最后输出的融合图像;K代表输入图像的数量;Gl表示高斯金字塔的第l层分解图像;Ll表示拉普拉斯金字塔的第l层分解图像,取l为3。
3. 实验结果与分析
为了验证本文所提算法的有效性,从主观评价和客观评价两方面对所提出的算法和现有的方法进行了对比分析。我们在Windows10 64位操作系统,MATLAB 2021a中运行所有代码。在本项研究中,选择了5个代表性的方法与所提出的方法进行了比较。这些方法包括Generalized dark channel prior(GDCP)[23],Low-light underwater image enhance(LUWE)[24],Image blurriness and light absorption(IBLA)[25],Underwater total variation(UTV)[26],Underwater light attenuation prior(ULAP)[27]。
3.1 主观分析
为了验证颜色恢复的有效性,首先进行色卡颜色恢复实验,将标准色卡作为参考,选取上述5种对比方法进行测试,实验结果如图 4所示。
从图 4可以看出,GDCP算法加重了色偏,图像整体颜色加深。IBLA算法最后一组的白色颜色变深存在色偏。LUWE算法整体清晰不高。UTV算法整体颜色偏蓝。背景的色偏加深。ULAP算法颜色偏红,且第一组的蓝色无法准确恢复。本文算法提高了图像的清晰度和亮度。此外,不同颜色块之间的区别和相邻颜色块之间的对比度都得到改善。同时,图像的颜色接近于标准色卡的颜色。实验结果表明,该算法具有较好的色彩恢复效果。
接下来,对从UIEB数据集[28]中获得的选定水下图像进行定性评估。所选择的图像包括绿色、蓝色、低可见度、黄色和模糊图像。选取上述5种方法与本文方法进行比较,验证本文所提算法的有效性。实验结果如图 5所示。GDCP方法使用与深度相关的颜色变化来估计环境光。然后通过场景环境光差来估计场景传输。然而,当背景光估计不准确时,该方法会失败。因此,GDCP方法在增强过程中容易引入颜色偏差,虽然部分结果图像的对比度和亮度有所提高,但偏色问题变得更加严重如Img9和Img11。LUWE方法有一定提亮效果,但是整体图像效果不自然,会产生视觉上令人不快的结果,引入绿色偏色。由于IBLA方法仅从散射和吸收效应的角度对图像进行处理,因此未能消除色偏,无法均匀恢复彩色水下图像。UTV方法引入更多的颜色失真和伪影,而且UTV不能恢复带蓝色图像的质量如Img1、Img6、Img10和Img11,还引入了绿色色调如Img5。由于ULAP方法在对红色和蓝色通道的改进不足,一些输出图像被绿色阴影覆盖,无法获得较好的对比度。与上述几种算法相比,本文的方法提供了更突出的颜色校正和对比度增强,并且在校正蓝色和绿色色调方面效果显著,同时图像的清晰度提高,整体的视觉效果好。
3.2 客观分析
定量评价用于计算客观指标值,从而评价图像的对比度、颜色和可视性。采用3种常用的图像质量评估指标来定量评估不同方法的增强性能,它们是水下图像质量测量(Underwater Image Quality Metric, UIQM)、水下彩色图像质量评价指标(Underwater Color Image Quality Evaluation, UCIQE)、信息熵(Information Entropy, IE)。UIQM是UISM(水下图像清晰度测量)、UIConM(水下图像对比度测量)和UICM(水下图像色彩度测量)的线性组合。UIQM越高表示清晰度、对比度和色彩之间的权衡效果越好。UCIQE是色度、饱和度和对比度的线性组合,可量化不均匀色偏、模糊和低对比度。UCIQE越高,表明色度、饱和度和对比度之间的权衡效果越好。信息熵表示图像的平均信息,IE越高表示图像中包含的信息越丰富。结果如下表 1、表 2、表 3所示,表中加粗的数据为测试方法中结果最优的值。
表 1 不同算法UCIQE值性能比较Table 1. UCIQE performance comparison of different algorithmsImage Original GDCP LUWE IBLA UTV ULAP Ours Img1 0.4553 0.5098 0.5029 0.5610 0.6070 0.5998 0.6126 Img2 0.4841 0.4898 0.5093 0.5434 0.5003 0.5114 0.5492 Img3 0.3954 0.4483 0.4435 0.5565 0.4516 0.5215 0.5348 Img4 0.3781 0.5109 0.4475 0.5131 0.4767 0.5121 0.5922 Img5 0.4142 0.4571 0.4695 0.5097 0.4655 0.5029 0.5156 Img6 0.4890 0.5101 0.5548 0.5621 0.5248 0.6052 0.5777 Img7 0.3683 0.4625 0.4444 0.5267 0.4032 0.5136 0.5872 Img8 0.3562 0.3863 0.3877 0.4754 0.4032 0.4320 0.5463 Img9 0.5056 0.6442 0.5489 0.6267 0.5599 0.6343 0.6488 Img10 0.4133 0.4704 0.5314 0.4866 0.4440 0.5121 0.5404 Img11 0.4082 0.5607 0.4251 0.4419 0.4979 0.4372 0.4557 表 2 不同算法UIQM值性能比较Table 2. UIQM performance comparison of different algorithmsImage Original GDCP LUWE IBLA UTV ULAP Ours Img1 2.7821 3.8974 4.3860 3.2594 3.0058 3.8758 4.3780 Img2 1.8279 1.0850 1.7068 2.9536 0.2982 2.7385 4.0464 Img3 2.5593 3.6617 3.8515 3.8458 2.6392 4.7203 4.9118 Img4 0.1042 2.6010 2.1006 2.0758 1.1663 2.3438 3.9573 Img5 2.1040 1.7579 1.9940 3.5006 0.4395 2.3452 4.6281 Img6 2.2514 1.7993 3.2255 2.3524 2.2776 3.4681 3.8431 Img7 2.0476 1.3239 3.7172 3.4762 -0.5008 3.6447 4.1473 Img8 1.0481 1.6538 2.2639 2.5637 2.1029 1.6523 4.7272 Img9 1.3444 5.2863 2.7307 3.1599 0.5830 3.3014 3.4702 Img10 3.4830 3.4376 3.9721 4.4035 2.4966 5.1522 5.0113 Img11 -2.6483 0.5530 -2.2435 -1.7240 1.2489 -2.1439 2.9481 表 3 不同算法IE值性能比较Table 3. IE performance comparison of different algorithmsImage Original GDCP LUWE IBLA UTV ULAP Ours Img1 6.8244 7.1171 7.1871 7.4798 6.8237 7.4307 7.7572 Img2 7.2359 7.1566 7.4181 7.5858 6.3070 7.5096 7.8490 Img3 6.4994 6.9010 7.2018 7.6165 6.4162 7.1308 7.7531 Img4 5.8538 7.1198 6.8177 7.0168 4.6001 6.9317 7.7278 Img5 6.9061 7.1146 7.3447 7.5804 6.1255 6.9916 7.7443 Img6 7.1263 7.2414 7.6263 7.6303 5.0976 7.2646 7.8796 Img7 5.9655 6.8547 6.8663 7.2386 5.4819 6.9016 7.7911 Img8 6.1841 6.4197 6.6478 7.3270 5.5174 6.9016 7.7951 Img9 7.0605 7.5978 7.4023 7.5781 6.8308 7.5917 7.7226 Img10 6.1650 7.1797 7.4174 7.0419 4.0723 6.9982 7.7330 Img11 5.6203 6.1019 6.2289 6.1412 4.4947 5.6837 7.4240 如表 1所示,本文的算法获得大多数图像最高的UCIQE值,但是在Img3中,IBLA方法的UCIQE值最大,通过对IBLA结果图像的主观观察可以看出,虽然图像的对比度提高了但是整体色调改善不明显,在Img6中ULAP的整体色调偏红,图像存在明显色偏。在Img11中,GDCP和UTV的UCIQE比本文的数值高,但看图可以发现,两种方法有明显的色差,整体色调偏蓝绿调。综上,所提算法对比度明显提高,图像质量恢复较好。如表 2和表 3所示,除了Img9,所提方法的UIQM值和IE值最大,但是Img9的GDCP引入了紫色调色差,图像失真严重。因此本文算法可以纠正图像颜色偏差并显著提高图像的对比度和清晰度同时图像所含信息丰富。
与上述其他方法相比较,本文所提的方法具有较好的可见性恢复能力和适应性能力。无论是从主观还是客观上分析,都能够较好地还原出水下图像的真实颜色,突出图像的更多细节信息,去除光散射造成的图像模糊。对于海洋工程应用、科学研究和准确了解水下世界具有重要意义。
4. 结语
针对水下图像存在颜色失真,对比度和可见度低等问题,本文提出基于颜色校正和暗亮双通道先验的水下图像增强算法。主要包括颜色校正、低对比度增强和可见度恢复3方面。实验结果表明,从主观上看,本文算法能较好地还原水下图像的真实颜色,对清晰度和对比度的提升也有较好的效果。从客观上看,所提出的方法得到的增强图像在UCIQE、UIQM和IE参数指标上优于其他先进算法。同时,对不同类型的水下图像恢复效果均不错,适用范围广,为后续的水下作业提供了有效的预处理方法。
-
表 1 LCVF模拟异常目标
Table 1 LCVF simulates anomalous targets
Column Number of targets/cells Proportion of target Proportion of background 1 5/20 0.8 0.2 2 5/20 0.6 0.4 3 5/5 0.4 0.6 4 6/6 0.2 0.8 表 2 异常检测数据介绍
Table 2 Anomaly detection data introduction
Data Sensor Resolution/m Size Targert type Number of targets/cells LCVF AVIRIS 20 120×160×190 Simulated anomalous targets 21/51 airport4 AVIRIS 3.4 100×100×205 Airport 3/60 beach4 ROSIS-03 1.3 150×150×102 Car and bare soil 7/68 urban1 AVIRIS 17.2 100×100×204 Building 9/67 urban3 AVIRIS 3.5 100×100×191 Ship 11/52 表 3 参数实验结果
Table 3 Parameters experimental results
Parameter Size AUC Parameter Size AUC Number of bands 3 0.9759 Number of pyramid layers 3 0.9081 6 0.9621 5 0.9759 9 0.9681 7 0.9709 12 0.9777 9 0.9624 15 0.9779 18 0.9772 Spectral feature window size 3×3 0.9769 21 0.9765 5×5 0.9759 24 0.9746 7×7 0.975 27 0.9726 30 0.9725 表 4 消融实验
Table 4 Ablation experiment
model Sampling mode Band selection Spectral feature AUC A 0.9625 B √ 0.9690 C √ 0.9788 D √ 0.9759 E √ √ 0.9846 F √ √ 0.9831 G √ √ √ 0.9862 表 5 AUC统计结果
Table 5 AUC statistics
RX ITTIRX HITTIRX LCVF 0.8333 0.8753 0.9999 Airport4 0.9526 0.8768 0.9894 Beach4 0.9588 0.9302 0.9847 Urban1 0.9907 0.9881 0.9983 Urban3 0.9513 0.9625 0.9862 -
[1] 赵春晖, 李晓慧, 王玉磊. 高光谱图像异常目标检测研究进展[J]. 电子测量与仪器学报, 2014, 28(8): 803-811. DOI: 10.13382/j.jemi.2014.08.001 ZHAO Chunhui, LI Xiaohui, WANG Yulei. Research progress of hyperspectral image anomaly target detection[J]. Journal of Electronic Measurement and Instrumentation, 2014, 28(8): 803-811. DOI: 10.13382/j.jemi.2014.08.001
[2] Reed I S, YU X. Adaptive multiple-band CFAR detection of an optical pattern with unknown spectral distribution[J]. IEEE Transactions on Acoustics Speech & Signal Processing, 1990, 38(10): 1760-1770.
[3] Ashton E A, Schaum A. Algorithms for the detection of sub-pixel targets in multispectral imagery[J]. Photogrammetric Engineering & Remote Sensing, 1998, 64(7): 723-731.
[4] Taitano Y, Geier B, Bauer K. A locally adaptable iterative RX detector[J]. EURASIP Journal on Advances in Signal Processing, 2010, 2010(1): 341908. DOI: 10.1155/2010/341908
[5] Molero J M, Garzón E M, García I, et al. Analysis and optimizations of global and local versions of the RX algorithm for anomaly detection in hyperspectral data[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2013, 6(2): 801-814. DOI: 10.1109/JSTARS.2013.2238609
[6] Kwon H, Nasrabadi N M. Kernel RX-algorithm: a nonlinear anomaly detector for hyperspectral imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(2): 388-397. DOI: 10.1109/TGRS.2004.841487
[7] 徐超, 詹天明. 基于低秩全变差正则化的高光谱异常检测方法[J]. 计算机科学与探索, 2020, 14(12): 2140-2149. DOI: 10.3778/j.issn.1673-9418.2002003 XU Chao, ZHAN Tianming. Hyperspectral anomaly detection method based on low-rank full-variance regularization[J]. Computer Science and Exploration, 2020, 14(12): 2140-2149. DOI: 10.3778/j.issn.1673-9418.2002003
[8] CHEN Yi, Nasrabadi N M, Tran T D. Sparse representation for target detection in hyperspectral imagery[J]. IEEE Journal of Selected Topics in Signal Processing, 2011, 5(3): 629-640. DOI: 10.1109/JSTSP.2011.2113170
[9] SUN Weiwei, LIU Chun, LI Jialin, et al. Low-rank and sparse matrix decomposition-based anomaly detection for hyperspectral imagery[J]. Journal of Applied Remote Sensing, 2014, 8(1): 083641. DOI: 10.1117/1.JRS.8.083641
[10] XU Yang, WU Zebin, LI Jun, et al. Anomaly detection in hyperspectral images based on low-rank and sparse representation[J]. IEEE Transactions on Geoscience & Remote Sensing, 2016, 54(4): 1990-2000.
[11] LI Wei , DU Qian. Collaborative representation for hyperspectral anomaly detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(3): 1463-1474. DOI: 10.1109/TGRS.2014.2343955
[12] 沈旭, 程小辉, 王新政. 结合视觉注意力机制基于尺度自适应局部对比度增强的红外弱小目标检测算法[J]. 红外技术, 2019, 41(8): 764-771. http://hwjs.nvir.cn/article/id/hwjs201908012 SHEN Xu, CHENG Xiaohui, WANG Xinzheng. Combined visual attention mechanism based on scale adaptive local contrast enhancement for infrared weak target detection algorithm[J]. Infrared Technology, 2019, 41(8): 764-771. http://hwjs.nvir.cn/article/id/hwjs201908012
[13] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259. DOI: 10.1109/34.730558
[14] LIANG Jie, ZHOU Jun, BAI Xiao, et al. Salient object detection in hyperspectral imagery[C]//IEEE International Conference on Image Processing, 2014: 2393-2397.
[15] CAO Yan, ZHANG Jing, TIAN Qi, et al. Salient target detection in hyperspectral images using spectral saliency[C]//IEEE China Summit and International Conference on Signal and Information Processing, 2015: 1086-1090.
[16] 刘嘉诚, 王爽, 刘伟华, 等. 显著性权重RX高光谱异常点检测[J]. 遥感学报, 2019, 23(3): 418-430. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXB201903005.htm LIU Jiacheng, WANG Shuang, LIU Weihua, et al. Significance weighting RX hyperspectral anomaly detection[J]. Journal of Remote Sensing, 2019, 23(3): 418-430. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXB201903005.htm
[17] ZHAO Minghua, YUE Liqin, HU Jing, et al. Salient target detection in hyperspectral image based on visual attention[J/OL]. IET Image Processing, 2021, 15(11):https://doi.org/10.1049/ipr2.12197 .
[18] XIANG Pei, SONG Jiangluqi, QIN Hanlin, et al. Visual attention and background subtraction with adaptive weight for hyperspectral anomaly detection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 2270-2283. DOI: 10.1109/JSTARS.2021.3052968
[19] ZHU Wei, LIU Jian, ZHU Mingyue, et al. Research on improved algorithm of DR image enhancement based on Gauss-Laplacian pyramid[J]. Chinese Journal of Medical Instrumentation, 2019, 43(1): 10-13. DOI: 10.3969/j.issn.1671-7104.2019.01.003
[20] 纪磊, 张欣, 张丽梅, 等. 基于空谱加权近邻的高光谱图像分类算法[J]. 激光与光电子学进展, 2020, 57(6): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202006017.htm JI Lei, ZHANG Xin, ZHANG Limei, et al. Hyperspectral image classification algorithm based on null-spectrum weighted nearest neighbor[J]. Advances in Lasers and Optoelectronics, 2020, 57(6): 165-172. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202006017.htm
[21] WANG Qi, ZHANG Fahong, LI Xuelong. Optimal clustering framework for hyperspectral band selection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(10): 5910-5922.
[22] 叶珍, 白璘, 何明一. 高光谱图像空谱特征提取综述[J]. 中国图象图形学报, 2021, 26(8): 1737-1763. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202108003.htm YE Zhen, BAI Lin, HE Meiyi. A review of hyperspectral image null spectrum feature extraction[J]. Chinese Journal of Graphics, 2021, 26(8): 1737-1763. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202108003.htm
[23] 汪家宝, 陈树新, 吴昊, 等. 采用平方根高斯核积分滤波的目标跟踪算法[J]. 西安交通大学学报, 2022, 56(4): 157-164. https://www.cnki.com.cn/Article/CJFDTOTAL-XAJT202204017.htm WANG Jiabao, CHEN Shuxin, WU Hao, et al. A target tracking algorithm using square root Gaussian kernel integral filtering[J]. Journal of Xi'an Jiaotong University, 2022, 56(4): 157-164. https://www.cnki.com.cn/Article/CJFDTOTAL-XAJT202204017.htm
[24] 黄远程, 钟燕飞, 赵野鹤, 等. 联合盲分解与稀疏表达的高光谱图像异常目标检测[J]. 武汉大学学报: 信息科学版, 2015, 40(9): 1144-1150. https://www.cnki.com.cn/Article/CJFDTOTAL-WHCH201509002.htm HUANG Yuancheng, ZHONG Yanfei, ZHAO Yehe, et al. Joint blind decomposition and sparse expression for hyperspectral image anomaly target detection[J]. Journal of Wuhan University: Information Science Edition, 2015, 40(9): 1144-1150. https://www.cnki.com.cn/Article/CJFDTOTAL-WHCH201509002.htm
[25] KANG Xudong, ZHANG Xiangping, LI Shutao , et al. Hyperspectral anomaly detection with attribute and edge-preserving filters[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017(10): 1-12.
[26] 成宝芝, 杨桂花, 王凤嫔, 等. 基于低秩张量分解的高光谱RX异常目标检测算法[J]. 光学技术, 2022, 48(3): 379-384. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJS202203020.htm CHENG Baozhi, YANG Guihua, WANG Fengpin, et al. Hyperspectral RX anomaly target detection algorithm based on low-rank tensor decomposition[J]. Optical Technology, 2022, 48(3): 379-384. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJS202203020.htm
-
期刊类型引用(3)
1. 刘一帆,周峰,胡斌,晋利兵. 基于Q型非球面的全景环带红外光学系统设计. 航天返回与遥感. 2024(01): 90-98 . 百度学术
2. 王彩霞,陈洪耀,司孝龙,李鑫,李佳伟,张黎明,包诗薇. 多波段鱼眼镜头相机实验室几何定标方法. 光子学报. 2024(08): 187-200 . 百度学术
3. 上官佳伟,李永亮,冯海龙,张馨元,王宁,李佳航. 大视场医用电子内窥镜光学成像系统研究综述. 激光杂志. 2024(08): 1-5 . 百度学术
其他类型引用(2)