Image Fusion Based on NSCT and Minimum-Local Mean Gradient
-
摘要: 针对传统红外图像与可见光图像融合存在对比度低、细节丢失、目标模糊等问题,本文基于非下采样轮廓波变换(Non-subsampled Contourlet Transform,NSCT)的思想,通过改进权重函数和融合规则,建立新的融合算法实现红外图像和可见光图像的有效融合。首先,通过NSCT变换对红外和可见光图像进行多尺度分解得到对应的低频系数和高频系数。然后,采用改进的最小化规则和局部平均梯度规则分别对低频系数和高频系数进行融合处理,得到对应的最优融合系数,并将所得融合系数进行NSCT逆变换得到最终融合图像。最后,使用公共数据集与其他5种算法进行对比实验,并在7个具有实际意义的性能评价指标约束下,验证所设计算法的有效性和鲁棒性。Abstract: To address the problems of low contrast, detail loss, and target blur in the fusion of traditional infrared and visible images, this study uses the idea of non-subsampled contourlet transform (NSCT) to improve the weight function and fusion rules and thus develops a new fusion algorithm to realize the effective fusion of infrared and visible images. First, NSCT is used to decompose infrared and visible images at multiple scales to obtain the corresponding low-and high-frequency coefficients. Then, the improved minimization and local mean gradient rules are used to fuse the low- and high-frequency coefficients, respectively, and thus to obtain the corresponding optimal fusion coefficient. The obtained fusion coefficient is then converted via an NSCT inverse transformation to obtain the final fused image. Finally, a public dataset is used to compare the proposed algorithm with the other five algorithms. The effectiveness and robustness of the proposed algorithm are verified under the constraints of seven performance evaluation indices having practical significance.
-
0. 引言
地球上海洋面积广阔且具有丰富的资源,如今随着经济的发展,每个国家对资源的需求不断增长,然而相比海洋资源,陆地上的资源随着人类大量开采而不断减少,因此,扩大对海洋资源的开发利用是未来人类发展的方向。不同于陆地环境,海洋环境存在着许多复杂的问题,在海洋环境下成像问题是最基础的问题同时也是最大的问题,这直接影响着是否能够探索到海洋资源。通常直接获取的水下图像会出现严重的噪声干扰、颜色衰退、图像信息的丢失等问题,这直接造成无法提取到有用的信息,无法进行后续工作的开展,因此进行水下图像增强具有重要的意义。
水下图像增强一直是当前很多专家学者研究的方向。2018年,Mishra等[1]对CLAHE进行了改进并应用于水下图像增强,这种方法在很大程度上将水下图像的对比度得到提高,但是经过这种方法处理过的水下图像会出现部分细节模糊的现象。2019年,Sun等人[2]提出了一种暗通道先验结合MSRCR水下图像增强算法,该算法有效地解决了低照度水下图像颜色衰退的问题,但是增强后的图像会出现雾化的问题。2020年,Wang等人[3]提出了一种低照度多尺度Retinex水下图像增强算法。该方法可以有效避免图像在输出时产生光影,并且可以解决水下图像不清晰、对比度较差等问题。但是,实验结果表明水下图像在图像颜色衰退部分还是有待改进。同年,Dhanya等人[4]提出L-CLAHE增强滤波图像算法,该算法由L-CLAHE、增强和滤波三个模块组成。L-CLAHE模块的输出经过Gamma校正、直方图均衡化和双边滤波等强化和滤波阶段处理,结果表明,输出图像对比度得到改善,但是图像局部边缘细节视觉效果差。2021年,朱佳琦等人[5]提出一种红通道先验与CLAHE融合的水下增强算法,该算法首先利用红通道先验理论计算出预估透射率,然后在CLAHE算法增强图像前加入Gamma校正,实验结果表明,图像整体对比度得到改善,但是图像局部对比度差距较小时增强效果较差。范新南等人[6]提出一种MSRCR与多尺度融合的水下图像增强算法,该算法首先将图像进行色偏校正并转换到Lab颜色空间对亮度分量进行增强,然后对MSRCR色彩校正图像和Lab空间亮度分量进行多尺度分解并融合,增强后的水下图像色彩丰富,但是图像对比度没有得到有效改善。张薇等人[7]提出基于白平衡和相对全变分的低照度水下图像增强,算法采用灰度世界先验校正水下图像颜色,依据引导滤波的保边平滑性构造新的相对全变分约束来估计照度图,水下图像的颜色得到了校正,但是图像雾化严重对比度低,同时部分水下图像颜色容易校正过度。
针对图像颜色衰退和图像结构复杂会导致局部区域过度增强色彩不真实和对比度低边缘细节模糊的问题,本文针对水下图像颜色衰退的问题提出用融合导向滤波的MSRCR算法,针对水下图像对比度低的问题提出融合Gamma校正的CLAHE算法,同时针对水下图像边缘细节模糊采用多尺度融合来增强图像中的边缘细节信息。最后通过对比实验,以验证本文所提出方法的有效性。
1. 算法原理
1.1 改进的MSRCR
多尺度Retinex(MSR)[8]在水下图像增强中通常会出现图像颜色衰退严重,噪声没有得到抑制,引起增强后的图像整体视觉效果不佳。Jobson等[9]提出的带色彩恢复因子的MSR算法(MSRCR)可以有效地解决图像颜色失真的问题,MSRCR的计算公式如下:
$$ {R_{{\text{MSRCR}}}}(x, y) = {C_i}(x, y)\sum\limits_{n = 1}^N {{\omega _n}} \{ \ln I(x, y) - \ln [I(x, y)*{G_n}(x, y)]\} $$ (1) 式中:I(x, y)为输入图像;Ci(x, y)表示图像第i个通道的颜色恢复参数,用来调节不同颜色通道之间的比例关系;N表示尺度数目,通常为3;ωn为第n个尺度的加权系数;Gn(x, y)为高斯滤波函数。
高斯滤波通常易产生图像被过度光滑,导致图像缺乏边缘细节。针对此问题,本文在MSRCR中采用导向滤波[10]代替高斯低通滤波,以有效解决水下图像颜色失真的问题和MSRCR算法增强水下图像时易造成边缘细节丢失的问题。
导向滤波的基本原理为对于输出图像和导向图在滤波窗口存在局部线性关系,其公式如下:
$$ \begin{gathered} {q_i} = {p_i} - {n_i} \hfill \\ {q_i} = {a_k}{I_i} + {b_k}, \forall i \in {\omega _k} \hfill \\ \end{gathered} $$ (2) 式中:pi为输入图像;Ii为导向图;qi为输出图像;ni为噪声;ak, bk为局部线性函数系数;ωk为滤波窗口。
对于在确定的窗口ωk中,ak, bk将会是唯一的常量系数,这就保证了在局部区域里,如果导向图Ii有一个边缘的时候,输出图像qi也保持边缘不变。因此只要求得了系数ak, bk也就得到了输出图像qi。为使得输入图像和输出图像的差别特别小,而且还可以保持局部线性模型,利用带正则项的岭回归计算滤波窗口内的损失函数E(ak, bk),计算过程如下:
$$ E({a_k}, {b_k}) = \sum\limits_{i \in {\omega _k}}^{} {({{({a_k}{I_i} + {b_k} - {p_i})}^2} + \varepsilon {a_k}^2)} $$ (3) $$ \begin{gathered} {a_k} = \frac{{\frac{1}{{|\omega |}}\sum\limits_{i \in {\omega _k}}^{} {{I_i}{p_i} - {\mu _k}{{\overline p }_k}} }}{{{\sigma _k}^2 + \varepsilon }}, \quad {b_k} = {\overline p _k} - {a_k}{\mu _k} \hfill \\ {q_i} = \frac{1}{{|\omega |}}\sum\limits_{k|i \in {\omega _k}}^{} {({a_k}{I_i} + {b_k})} \hfill \\ \end{gathered} $$ (4) 式中:μk, σk2分别是导向图在ωk窗口大小的均值与方差;ε为正则化参数;|ω|表示窗口内像素总数$\overline {{p_k}} = \frac{1}{{|\omega |}}\sum\limits_{i \in {\omega _k}}^{} {{p_i}} $表示在ωk窗口内输入图像的像素均值。
使用线性相关参数(ak, bk),滤波输出图像就可以通过qi=akIi+bk线性模型得到。针对不同的窗口大小我们就会得到不同的导向滤波输出图像qi值。
本文在MSRCR算法中用导向滤波函数代替高斯低通滤波函数,具体计算如下:
$$ {R^*}_{{\text{MSRCR}}}(x, y) = {C_i}(x, y)\sum\limits_{n = 1}^N {{\omega _n}} \{ \ln I(x, y) - \ln [I(x, y)*D(x, y)]\} $$ (5) 式中:RMSRCR*(x, y)表示改进的MSRCR算法输出图像;D(x, y)为导向滤波函数。
图 1(a)为水下拍摄的原图,图像整体呈现出颜色失真的状态;图 1(b)为经过MSR处理后的图像,图像对比度有所提高,但是颜色矫正不佳,出现了色偏;图 1(c)为经过MSRCR处理后的图像,图像对比度明显提高,但是图像局部细节较为模糊;图 1(d)为改进的MSRCR处理后的图像相较于图 1(c)图像边缘细节清晰。
图 2(a)为经过MSRCR处理后选取局部区域放大后的图像,图 2(b)为经过改进MSRCR处理后选取局部区域放大后的图像。对比可得,图 2(b)的边缘细节更加清晰,改进后的MSRCR算法解决了MSRCR算法增强图像带来的部分边缘细节模糊的问题。
1.2 改进的CLAHE
常用的对比度增强算法[11-13]有HE(Histogram Equalization)、AHE(Adaptive Histogram Equalization)、CLAHE。HE算法主要是用来对图像的整体对比度进行增强,适用于图像的背景和前景接近的情况下。但是该方法在对较暗的区域均衡处理后由于亮度被拉得太高而出现噪点,并最终弱化了图像细节。AHE算法是在HE算法的基础上,将图像划分为几块分别处理,这样有利于处理图像数据的局部细节。但是该算法的复杂度较高,降低了图像的处理效率,同时图像块与块之间的过渡处理欠佳。CLAHE算法是在AHE算法的基础上进行改进,通过加入阈值对图像噪声进行抑制,同时通过使用线性插值的方法对图像区域块连接处进行优化,使图像整体变得平滑。但是CLAHE算法只提高了图像的对比度,然而并没有对图像的边缘细节信息进行增强。
综上,本文在CLAHE算法中引入Gamma校正[14],在图像经过CLAHE处理前、后都加入Gamma校正,以增强图像整体对比度同时提高图像局部对比度,尤其对于相邻区域之间相差较小时增强效果明显。具体步骤如下所示:
1)对图像进行Gamma校正并将图像分割成连续,非重叠的M×N的区域块,每个区域块含有的像素为n,区域块的大小与图像对比度的增强有着紧密的联系,区域块越大图像对比度增强越大,但是图像细节信息丢失的越多。
2)获取每个区域块的直方图,根据每个区域块的直方图分布规律计算裁剪幅值T。
$$ T = {C_{{\text{clip}}}} \times \frac{{{N_x} \times {N_y}}}{H} $$ (6) 式中:Cclip是裁剪系数;Nx, Ny为在每个子块x, y方向上的像素个数;H为灰度级数。
3)计算出图像区域块的分布直方图并设置阈值,将高于阈值的直方图部分进行切除,同时将该部分平均分布在直方图的下方,如图 3所示。
4)在重新分配后的直方图上,对每个区域块进行直方图均衡化,同时对区域块的位置进行像素重构。
5)对图像进行Gamma校正。如式(7)所示,当γ<1时,如果图像区域块输入灰度值低,那么图像区域块输出灰度值变化将变大,图像对比度将会增强;如果图像区域块输入灰度值高,那么图像区域块输出灰度值变化将变小,图像对比度将会降低。当γ>1时,如果图像区域块输入灰度值低,那么图像区域块输出灰度值变化将变小,图像对比度将会降低;如果图像区域块输入灰度值高,那么图像区域块输出灰度值变化将变大,图像对比度将会增强。
$$ s = c{\left( {r + \varepsilon } \right)^\gamma } $$ (7) 式中:c和ε为常量;γ为Gamma校正参数,该参数决定校正效果;r为输入灰度级;s为输出灰度级。
图 4是对图 1(d)所示的水下图像运用不同对比度增强算法得到结果。
由图 4可以看出,图 4(a)是HE算法处理后的图像,易看出图像对比度增强过度,许多不重要的背景噪声同时也被增强,图像部分细节没有得到增强反而变得模糊不清;图 4(b)是AHE算法处理后的图像,易看出图像块与块之间没有做过渡处理并且出现图像背景噪声被过度增强;图 4(c)是CLAHE算法处理后的图像,易看出图像整体对比度得到了改善,背景噪声没有出现增强过度,但是图像局部对比度增强不足,部分细节不清晰;图 4(d)是改进的CLAHE算法处理后的图像,该算法有效地增强了图像整体对比度的同时也增强了图像局部对比度。
1.3 图像多尺度融合
图像融合通常的做法就是对不同图像赋予不同的值,然后通过叠加得到最终的结果图,但是这种做法往往会出现图像细节不清晰,图像出现重影晕环。为了解决这个问题,本文采用多尺度图像金字塔来融合图像,多尺度图像融合指的是图像在不同尺度下进行融合,通常情况下在单一尺度很难获取图像特征然而在另外一种尺度下就很容易获取,为了极大可能地保留图像结构特征,采用多尺度图像融合是一种较好的方式之一。
1.3.1 图像权重的计算
单一的图像权重[15]不能完整地反映图像各个基本特征。因此,要想完整地反映图像各个基本特征需要融合多个图像权重,本文选取了拉普拉斯对比度权重、亮度权重、饱和度权重、显著性权重。
拉普拉斯对比度权重可以清楚地显示出图像的边缘特征信息,通过使用拉普拉斯滤波器可以得到图像的全局对比度,这样可以保证图像的边缘和纹理具有较高的值。亮度权重负责为具有良好可见性的像素分配高值,该权重图是通过观察输入的R、G、B三通道与亮度通道L(给定位置的像素强度的平均值)之间的偏差来计算;显著性权重为了突出显示水下图像具有更高显著性的区域,可以通过输入的平均值减去其高斯平滑后得到结果。饱和度权重用于调整图像中的饱和区域,以获得饱和度均匀的融合图像。归一化权重是对上述权重进行归一化处理。
图 5分别是颜色校正图像,颜色校正图像的拉普拉斯对比度、亮度、饱和度、显著性权重图以及归一化权重图。图 6分别是对比度增强图像,对比度增强图像的拉普拉斯对比度、亮度、饱和度、显著性权重图以及归一化权重图。
1.3.2 多尺度图像金字塔融合
图像金字塔技术是以不同角度展示图像细节的一种方式,高斯图像金字塔和拉普拉斯图像金字塔是最常见的图像金字塔技术,通常会结合这两种技术综合使用。对颜色校正图像和对比度增强图像的归一化权重图进行高斯金字塔分解,得到不同尺度的权重图;对颜色校正图像和对比度增强图像采用拉普拉斯金字塔分解,得到不同尺度的图像,最后将不同尺度的图像进行重建,得到最终的增强图。
高斯图像金字塔可以保持图像的结构纹理信息,首先会对图像进行高斯滤波并且进行连续下采样,从而得到多种分辨率的图像。
$$ \begin{gathered} {G_l}(i, j) = \sum\limits_{m = - 2}^2 {\sum\limits_{n = - 2}^2 {\omega (m, n){G_{l - 1}}(2i + m, 2j + n)} } \hfill \\ (1 \leqslant L \leqslant N, 1 \leqslant i \leqslant {R_L}, 1 \leqslant j \leqslant {C_L}) \hfill \\ \end{gathered} $$ (8) 式中:N表示图像金字塔不同的层数;RL, CL表示第L层输入图像的行和列;ω(m, n)表示高斯核函数。
拉普拉斯金字塔是用来重新构造出一幅图像,通过高斯金字塔得到的不同分辨率的图像,然后将每一层与上一层进行作差,同时进行上采样并且做高斯卷积,最终会得到不同的差值图像,通常称这些差值图像为拉普拉斯图像金字塔。
$$ {L_l} = {K_l} - {\text{Up}}({\text{Down}}({K_l})) $$ (9) 式中:Kl为原始输入图像;Ll为拉普拉斯金字塔分解图像;Up, Down分别为向上采样,向下采样。
多尺度金字塔融合计算公式为:
$$ \begin{gathered} {F_l}(x) = \sum\limits_k^{} {{G_l}[{{\overline W }_k}(x)]{L_l}[{I_k}(x)]} \hfill \\ F(x) = \sum\limits_l {{F_l}(x){ \uparrow ^d}} \hfill \\ \end{gathered} $$ (10) 式中:l为金字塔的不同层数;k为输入图像金字塔的索引;Gl为高斯金字塔的分解;L为拉普拉斯金字塔的分解;${\bar W_k}$表示权重值归一化;Ik表示输入图像;Fl(x)为多尺度融合图像;F(x)为最后的融合结果;↑d表示该过程采用上采样方式。
2. 算法流程
本文针对水下图像颜色衰退严重、对比度低及细节特征模糊等问题,提出一种改进的MSRCR与CLAHE多尺度融合的图像增强算法。图 7为多尺度图像融合的原理图及最终效果图,其中图 7(a)为水下图像经过颜色校正和对比度校正后的高斯金字塔图像和拉普拉斯图像,图 7(b)为水下图像经过颜色校正和对比度校正多尺度融合后的图像。为图 8为本文算法流程图,该算法首先将采集到的水下图像运用带导向滤波的MSRCR算法进行颜色校正;同时将颜色校正后的图像运用带有Gamma校正的CLAHE算法增强图像对比度;最后对经过颜色校正和对比度增强的水下图像进行多尺度图像融合得到最终水下增强图像。
3. 实验结果与分析
实验的硬件系统为CPU i7-10875H,16GB DDR4;软件仿真环境是Matlab2016a,Win10操作系统。为了求证本文算法的可行性,将本文算法和文献[3]、文献[7]、文献[13]、文献[16]的算法进行对比,同时从主观和客观方面进行对比分析。
3.1 主观评价
本文实验选择10种不同水下环境下的图像进行对比仿真实验,处理结果如图 9所示。
从图 9中可以看出,文献[3]算法整体上对图像细节清晰度和对比度有一定的提升,但是没有解决水下图像颜色衰退的问题;文献[7]算法增强后的水下图像颜色校正明显,但是对于偏蓝色的水下场景并没有很好的校正,并且图像对比度低,图像细节模糊;文献[13]算法基本解决了水下图像颜色衰退的问题,图像细节和对比度同时也得到了提升,但是对于偏蓝色的水下场景颜色校正效果差(如Picture 10);文献[16]算法整体上图像对比度提升明显,图像细节较为清晰,但是颜色校正效果稍显不足(如Picture 2,Picture 4,Picture 8);本文算法整体上解决了不同水下环境的颜色衰退问题,对比度大幅度的提高,图像局部细节清晰明显,符合自然光照下的图像。
3.2 客观评价
本文采用3种性能指标来评估水下图像质量,即PSNR、SSIM和UIQE[17-18]。PSNR是基于对应像素点间的误差计算,主要计算最大值信号与背景噪声之间的比值,其数值越大则表示失真越小,其计算公式为:
$$ {\text{MSE}} = \frac{1}{{H*W}}\sum\limits_{i = 1}^H {\sum\limits_{j = 1}^W {(X(i, j)} - Y(i, j){)^2}} $$ $$ {\text{PSNR}} = 10\lg (\frac{{{{({2^n} - 1)}^2}}}{{{\text{MSE}}}}) $$ (11) 式中:MSE表示图像的均方误差;H、W表示图像的宽,高;n表示图像像素的比特数。
SSIM是衡量两幅图像相似度的指标,其计算公式为:
$$ {\text{SSIM}} = \frac{{(2{x_1}{x_2} + {C_1})(2{y_{1, 2}} + {C_2})}}{{({x_1}^2 + {x_2}^2 + {C_1})({y_1}^2 + {y_2}^2 + {C_2})}} $$ (12) 式中:x1、y1表示输入图像的均值,标准差;y1、y2表示增强后图像的均值,标准差;y1, 2表示输入图像和增强后图像的协方差;C1、C2为常数。SSIM数值越大表示输入原图的结构损失越小。
UIQE是专门用来评价水下图像质量的指标,通常对评价颜色保真度、对比度、清晰度3个分量根据水下环境微调不同的权重参数,3个权重参数的确定需要通过多元的线性回归计算,最后线性相加不同的分量得出最终指标。
$$ {\text{UIQE}} = {c_1}*\alpha + {c_2}*\beta + {c_3}*\chi $$ (13) 式中:c1、c2、c3是不同分量的权重;α表示颜色保真度的测量指标;β表示对比度测量指标;χ表示清晰度的测量指标。
表 1 不同算法PSNR性能比较Table 1. PSNR performance comparison of different algorithmsPNSR Original Reference[3] Reference[7] Reference[13] Reference[16] Ours Picture 1 - 13.8014 14.2261 16.3929 21.0436 24.2896 Picture 2 - 6.2876 6.7461 6.2519 14.0142 18.9873 Picture 3 - 15.9585 12.5442 13.0328 20.9045 22.3212 Picture 4 - 7.3254 7.9521 8.1265 13.2158 19.9914 Picture 5 - 12.9871 14.8561 15.8516 17.3258 20.5563 Picture 6 - 15.6243 15.9985 16.2546 18.2319 24.7963 Picture 7 - 11.8274 13.2873 14.7931 19.2291 19.9639 Picture 8 - 10.2034 11.2544 15.2698 16.3245 19.3312 Picture 9 - 14.5758 15.9152 18.3223 20.5513 24.3698 Picture10 - 11.4522 12.3756 13.4851 16.6334 19.3497 表 2 不同算法SSIM性能比较Table 2. Performance comparison of different SSIM algorithmsSSIM Original Reference[3] Reference[7] Reference[13] Reference[16] Ours Picture 1 - 0.5609+ 0.5943 0.8321 0.8384 0.9611 Picture 2 - 0.5223 0.5081 0.6869 0.8612 0.8874 Picture 3 - 0.6186 0.7926 0.8031 0.8299 0.9212 Picture 4 - 0.5743 0.5178 0.8163 0.8752 0.9649 Picture 5 - 0.7121 0.7963 0.8263 0.8998 0.9088 Picture 6 - 0.6933 0.7432 0.7966 0.8364 0.8997 Picture 7 - 0.6074 0.5927 0.6988 0.7411 0.8796 Picture 8 - 0.5871 0.5988 0.6355 0.7843 0.8894 Picture 9 - 0.6121 0.6028 0.7123 0.7652 0.9126 Picture 10 - 0.5386 0.6103 0.7521 0.8419 0.8696 表 3 不同算法UIQE性能比较Table 3. UIQE performance comparison of different algorithmsUIQE Original Reference[3] Reference[7] Reference[13] Reference[16] Ours Picture 1 2.6449 4.9242 4.6436 5.0271 3.6167 5.2238 Picture 2 1.7252 4.0814 0.2696 3.9252 2.1831 4.9121 Picture 3 1.9542 3.0251 1.3447 3.5738 2.2406 4.4633 Picture 4 1.5241 4.5296 1.0328 4.2153 3.6574 5.9685 Picture 5 1.7551 3.1221 3.0217 3.9746 4.9962 6.2312 Picture 6 1.9978 2.2173 2.1179 4.5023 4.8785 6.0178 Picture 7 1.2212 1.3258 2.3647 4.2589 4.5565 6.9872 Picture 8 2.0121 2.2365 3.4562 4.2199 4.8456 5.5463 Picture 9 2.7853 2.8742 3.9893 4.5631 4.7987 6.2971 Picture 10 0.6721 2.9255 3.2372 3.4801 1.5899 3.6943 从表 1中可以看出本文算法的PSNR基本上高于其他文献算法的值,除了Picture 3的PSNR数值略低于CLAHE算法,然而PSNR的数值并不能完全代表图像的质量,所以要结合图像的主观比较结果,从图中可以清晰看出Picture 3的颜色校正过度,红色分量过多出现颜色偏差,因此结合主观视觉来看,PSNR指标还是最好的。从表 2中可以看出,本文算法的SSIM数值和其他算法相比是最优的,说明本文算法保留了更多的图像的原始信息。从表 3中,本文算法的UIQE数值远远大于其他算法数值,其中,UIQE的权重系数c1=0.0351,c2=0.3128,c3=3.5792,UIQE数值越大表明图像的颜色保真度、清晰度、对比度越佳。
主观上,从图 8中不同图像增强后的结果可以看出,本文算法可以有效地解决不同环境下的水下图像共同存在的问题,呈现出优良的视觉效果;客观上,从表 1~3中可以看出本文算法的不同指标数值几乎是最优的。因此,本文算法可以从不同方向有效的增强水下图像。
4. 结束语
本文研究了水下图像增强几种具有代表性的算法。针对水下图像存在图像颜色衰退严重,对比度低,细节特征模糊等问题,提出了一种具有导向滤波的MSRCR算法,该算法解决了水下图像颜色衰退的问题同时又保留了图像边缘细节;提出了一种具有Gamma校正的CLAHE算法,该算法有效地增强了水下图像整体对比度的同时也增强了图像局部对比度;最后结合多尺度图像融合,将两种算法增强后的图像逐层提取融合,保留了大量的图像特征信息,最终增强后的水下图像有效地解决了图像颜色衰退严重,对比度低,细节特征模糊的问题。对比实验结果显示,本文算法在主客观方面优于其他几种经典的水下图像增强算法。
-
表 1 “UN Camp”图像融合结果的客观评价数据
Table 1 Objective evaluation data of fusion results of "UN Camp" image
LPRP CBF CT DTCWT NSCT-M Ours IE 5.8736 5.8778 5.9535 6.6971 6.0300 6.7782 AG 5.0301 5.2612 5.9634 5.4543 6.9987 8.6568 SD 18.6783 18.5153 19.3430 28.6416 20.2610 33.7394 SF 10.5760 10.7665 12.6522 10.9804 14.8598 18.0516 MI 1.7317 1.7287 1.7345 1.8071 1.7482 1.7807 VIF 0.2834 0.2889 0.3066 0.4386 0.2932 0.5982 QABF 0.3531 0.3391 0.4069 0.3956 0.3895 0.4116 表 2 “Kaptein_1123”图像的融合结果的客观评价数据
Table 2 Objective evaluation data of fusion results of "Kaptein_1123" image
LPRP CBF CT DTCWT NSCT-M Ours IE 6.5108 6.5400 6.4460 6.7483 6.4623 6.7527 AG 4.7763 6.2218 3.8271 5.1686 4.2784 7.1084 SD 32.0192 32.6583 30.8624 36.0783 31.3539 47.2670 SF 11.9578 17.3752 9.9378 15.4644 11.4173 19.4531 MI 1.6681 1.6794 1.6542 1.6272 1.6570 1.6728 VIF 0.2852 0.2693 0.2639 0.1811 0.2561 0.4387 QABF 0.3080 0.2947 0.2552 0.3225 0.2737 0.3362 表 3 “Quad”图像的融合结果客观评价数据
Table 3 Objective evaluation data of fusion results of "Quad" image
LPRP CBF CT DTCWT NSCT-M Ours IE 5.7331 5.8807 6.4628 6.0780 5.7632 6.0501 AG 2.6998 3.1727 2.9816 3.0675 2.9061 3.4874 SD 29.8808 28.9345 34.2477 39.7308 26.0337 35.0966 SF 6.6144 7.5910 7.1388 7.4617 7.1121 8.1971 MI 1.7991 1.7882 1.8732 1.8816 1.7565 1.8579 VIF 0.1881 0.2749 0.3262 0.2403 0.2637 0.2963 QABF 0.2010 0.3970 0.3509 0.2436 0.4100 0.4534 表 4 “UN Camp”融合图像的达成度
Table 4 Degree of "UN Camp" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.8665 0.8672 0.8783 0.9880 0.8896 1.0000 AG 0.5811 0.6078 0.6889 0.6301 0.8085 1.0000 SD 0.5536 0.5488 0.5733 0.8489 0.6005 1.0000 SF 0.5859 0.5964 0.7009 0.6083 0.8232 1.0000 MI 0.9583 0.9566 0.9598 1.0000 0.9674 0.9854 VIF 0.4738 0.4829 0.5125 0.7332 0.4901 1.0000 QABF 0.8579 0.8239 0.9886 0.9611 0.9463 1.0000 TGA 4.8770 4.8835 5.3023 5.7696 5.5256 6.9854 表 5 “Kaptein_1123”融合图像的达成度
Table 5 degree of "Kaptein_1123" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.9642 0.9685 0.9546 0.9993 0.9570 1.0000 AG 0.6719 0.8753 0.5384 0.7271 0.6019 1.0000 SD 0.6774 0.6909 0.6529 0.7633 0.6633 1.0000 SF 0.6147 0.8932 0.5109 0.7950 0.5869 1.0000 MI 0.9933 1.0000 0.9850 0.9689 0.9867 0.9961 VIF 0.6501 0.6139 0.6016 0.4128 0.5838 1.0000 QABF 0.9161 0.8766 0.7591 0.9593 0.8141 1.0000 TGA 5.4877 5.9183 5.0024 5.6257 5.1937 6.9961 表 6 “Quad”融合图像的达成度
Table 6 degree of "Quad" fusion image
LPRP CBF CT DTCWT NSCT-M Ours IE 0.8871 0.9099 1.0000 0.9405 0.8917 0.9361 AG 0.7742 0.9098 0.8550 0.8796 0.8333 1.0000 SD 0.7521 0.7283 0.8620 1.0000 0.6553 0.8834 SF 0.8069 0.9261 0.8709 0.9103 0.8676 1.0000 MI 0.9562 0.9504 0.9955 1.0000 0.9335 0.9874 VIF 0.5766 0.8427 1.0000 0.7367 0.8084 0.9083 QABF 0.4433 0.8756 0.7739 0.5373 0.9043 1.0000 TGA 5.1964 6.1428 6.3573 6.0044 5.8941 6.7152 -
[1] MA J, MA Y, LI C. Infrared and visible image fusion methods and applications: A survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004
[2] HUANG Z, CHEN L, ZHANG Y, et al. Robust contact-point detection from pantograph-catenary infrared images by employing horizontal- vertical enhancement operator[J]. Infrared Physics & Technology, 2019, 101: 146-155.
[3] HUANG Z, FANG H, LI Q, et al. Optical remote sensing image enhancement with weak structure preservation via spatially adaptive gamma correction[J]. Infrared Physics & Technology, 2018, 94: 38-47.
[4] 肖中杰.基于NSCT红外与可见光图像融合算法优化研究[J].红外技术, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010 XIAO Zhongjie. Optimization of Infrared and Visible Image Fusion Algorithm based on NSCT[J]. Infrared Technology, 2017, 39(12): 1127-1130. http://hwjs.nvir.cn/article/id/hwjs201712010
[5] ZHANG B, LU X, PEI H, et al. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform[J]. Infrared Physics & Technology, 2015, 73: 286-297.
[6] ZHOU Z, WANG B, LI S, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 15-26. DOI: 10.1016/j.inffus.2015.11.003
[7] MA J, YU W, LIANG P, et al. Fusion GAN: A generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26. DOI: 10.1016/j.inffus.2018.09.004
[8] ZHANG Y, ZHANG L, BAI X, et al. Infrared and visual image fusion through infrared feature extraction and visual information preservation[J]. Infrared Physics & Technology, 2017, 83: 227-237.
[9] 肖进胜, 饶天宇, 贾茜, 等.基于图切割的拉普拉斯金字塔图像融合算法[J].光电子·激光, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm XIAO Jinsheng, RAO Tianyu, JIA Qian, et al. Image fusion algorithm of Laplacian Pyramid based on graph Cutting[J]. Photoelectron Laser, 2014, 25(7): 1416-1424. https://www.cnki.com.cn/Article/CJFDTOTAL-GDZJ201407032.htm
[10] 刘斌, 付忠旺.基于四通道不可分提升小波的多聚焦图像融合[J].系统工程与电子技术, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm LIU Bin, FU Zhongwang. Multi-focus image fusion based on four-channel Indivisible Lifting Wavelet[J]. Systems Engineering and Electronics technology, 2018, 40(2): 463-471. https://www.cnki.com.cn/Article/CJFDTOTAL-XTYD201802032.htm
[11] 薛琴, 范勇, 李绘卓, 等.基于广义邻域结构相似度的红外和彩色可见光图像融合[J].四川大学学报:自然科学版, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017 XUE Qin, FAN Yong, LI Huizhong, et al. Infrared and color visible light image fusion based on generalized neighborhood structure similarity[J]. Journal of Sichuan University: Natural Science, 2012, 49(3): 570-576. DOI: 10.3969/j.issn.0490-6756.2012.03.017
[12] DA Cunha A L, ZHOU J, DO M N. The nonsubsampled contourlet transform: theory, design, and applications[J]. IEEE Transactions on Image Processing, 2006, 15(10): 3089-3101. DOI: 10.1109/TIP.2006.877507
[13] ZHU Z, YIN H, CHAI Y, et al. A novel multi-modality image fusion method based on image decomposition and sparse representation[J]. Information Sciences, 2018, 432: 516-529. DOI: 10.1016/j.ins.2017.09.010
[14] 甄媚, 王书朋.可见光与红外图像自适应加权平均融合方法[J].红外技术, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008 ZHEN Mei, WANG Shupeng. Adaptive Weighted average fusion method for Visible light and infrared Images[J]. Infrared Technology, 2019, 41(4): 341-346. http://hwjs.nvir.cn/article/id/hwjs201904008
[15] XIA Z, PENG X, FENG X, et al. Scarce face recognition via two-layer collaborative representation[J]. IET Biometrics, 2017, 7(1): 56-62.
[16] 张新曼, 韩九强.基于视觉特性的多尺度对比度塔图像融合及性能评价[J].西安交通大学学报, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013 ZHANG Xinman, HAN Jiuqiang. Image fusion and Performance Evaluation of Multi-scale Contrast tower based on visual Characteristics[J]. Journal of Xi 'an Jiaotong University, 2004(4): 380-383. DOI: 10.3321/j.issn:0253-987X.2004.04.013
[17] 徐丹萍, 王海梅.基于双边滤波和NSST的红外与可见光图像融合[J].计算机测量与控制, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm XU Danping, WANG Haimei. Infrared and visible image fusion based on bilateral Filtering and NSST[J]. Computer Measurement and Control, 2018, 26(4): 201-204. https://www.cnki.com.cn/Article/CJFDTOTAL-JZCK201804053.htm
[18] 李晖晖, 郭雷, 刘坤.基于曲波变换的遥感图像融合研究[J].光电子·激光, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029 LI Huihui, GUO Lei, LIU Kun. Research on Remote sensing Image Fusion based on Qu Wave Transform[J]. Optoelectronics.Laser, 2008(3): 400-403, 411. DOI: 10.3321/j.issn:1005-0086.2008.03.029
[19] 王亚杰, 李殿起, 徐心和.基于双树复小波变换彩色多聚焦图像融合方法[J].计算机工程与应用, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005 WANG Yajie, LI Dianqi, XU Xinhe. Color Multi-focus image fusion method based on Double tree Complex Wavelet Transform[J]. Computer Engineering and Applications, 2007(28): 12-14, 40. DOI: 10.3321/j.issn:1002-8331.2007.28.005
[20] JIN X, JIANG Q, YAO S, et al. A survey of infrared and visual image fusion methods[J]. Infrared Physics & Technology, 2017, 85: 478-501.
[21] 王跃华, 陶忠祥.红外与可见光图像融合质量评价方法综述[J].红外, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002 WANG Yuehua, TAO Zhongxiang. Review of evaluation methods of infrared and visible image fusion quality[J]. Infrared, 2012, 33(6): 7-11. DOI: 10.3969/j.issn.1672-8785.2012.06.002
[22] QU G, ZHANG D, YAN P. Information measure for performance of image fusion[J]. Electronics letters, 2002, 38(7): 313-315. DOI: 10.1049/el:20020212
[23] HAN Y, CAI Y, CAO Y, et al. A new image fusion performance metric based on visual information fidelity[J]. Information Fusion, 2013, 14(2): 127-135. DOI: 10.1016/j.inffus.2011.08.002
[24] 薄瑞峰, 苗鸿宾.目标达成度评价法在机械设计课程考核中的应用[J].机械设计, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm BO Ruifeng, MIAO Hongbin. Application of objective Achievement Evaluation method in mechanical Design Course Assessment[J]. Mechanical Design, 2018, 35(S2): 236-238. https://www.cnki.com.cn/Article/CJFDTOTAL-JXSJ2018S2078.htm
-
期刊类型引用(18)
1. 陶洋,谭浩,周立群. ULCF-Net:跨尺度结构与色彩融合的水下低照度图像增强算法. 激光与光电子学进展. 2025(02): 430-440 . 百度学术
2. 闫建红,李佳欣. 基于改进的MSR和γ-CLAHE的骶髂关节CT图像增强算法. 现代信息科技. 2025(06): 126-129+134 . 百度学术
3. 刘芸萌,龙永红,李欣. 基于轻量化神经网络的低照度图像增强算法. 湖南工业大学学报. 2025(04): 41-47 . 百度学术
4. 梅杰,覃嘉锐,陈定方,陈昆. 基于视觉同时定位与地图构建的水下图像增强式视觉三维重建方法. 中国机械工程. 2024(02): 268-279 . 百度学术
5. 高航,白晨博,贾强. 基于改进MSRCR的光伏板图像去雾方法研究. 长江信息通信. 2024(04): 138-141 . 百度学术
6. 周辉奎,章立,胡素娟. 改进直方图匹配和自适应均衡的水下图像增强. 红外技术. 2024(05): 532-538 . 本站查看
7. 弭永发,迟明善,张强,刘鹏杰,王天佑. 基于颜色校正与改进的CLAHE多尺度融合水下图像增强. 无线电工程. 2024(06): 1470-1480 . 百度学术
8. 刘晓朋,张涛. 全局-局部注意力引导的红外图像恢复算法. 红外技术. 2024(07): 791-801 . 本站查看
9. 段燕北,程航. 匹配变换和线性变换融合的水下图像增强. 实验室研究与探索. 2024(07): 23-27+182 . 百度学术
10. 韩丽,王中训,陈玉杰,刘培学,王林霖. 基于NSST与PCNN的水下图像融合方法研究. 电子设计工程. 2024(20): 72-77 . 百度学术
11. 何婧,邱欣欣,温强. 基于边缘检测的数字媒体深度交互式图像分割算法. 吉林大学学报(信息科学版). 2024(05): 952-958 . 百度学术
12. 赵燕萍. 基于引导滤波技术的低照度图像细节增强处理算法. 现代计算机. 2024(17): 18-22 . 百度学术
13. 肖海柳. 分段均匀重分布和对数校正的水下图像增强. 火力与指挥控制. 2024(10): 135-141+148 . 百度学术
14. 黄绿娥,陈祥林,肖文祥,邓亚峰. 基于分级多尺度融合的河道水下图像增强. 机电工程技术. 2024(12): 35-40+100 . 百度学术
15. 戴永东,李明江,王茂飞,蒋承伶,马洲俊. Swin Transformer的电网设备缺陷检测与识别研究. 西安工业大学学报. 2024(06): 813-822 . 百度学术
16. 王子昱. 基于图像增强的低光弱人脸检测算法分析. 信息与电脑(理论版). 2023(16): 144-147 . 百度学术
17. 王金刚,林森. 基于颜色校正及特征融合的海洋遗迹图像增强. 海洋测绘. 2023(06): 61-65 . 百度学术
18. 张菲菲,肖玉玲,陈伟雄,刘正熙,彭明骏,张高菘,林叶. 面向移动终端的恶劣环境图像增强软件的设计与实现. 现代计算机. 2023(22): 108-112 . 百度学术
其他类型引用(17)