基于改进的MSRCR-CLAHE融合的水下图像增强算法

马敏慧, 王红茹, 王佳

马敏慧, 王红茹, 王佳. 基于改进的MSRCR-CLAHE融合的水下图像增强算法[J]. 红外技术, 2023, 45(1): 23-32.
引用本文: 马敏慧, 王红茹, 王佳. 基于改进的MSRCR-CLAHE融合的水下图像增强算法[J]. 红外技术, 2023, 45(1): 23-32.
MA Minhui, WANG Hongru, WANG Jia. An Underwater Image Enhancement Algorithm Based on Improved MSRCR-CLAHE Fusion[J]. Infrared Technology , 2023, 45(1): 23-32.
Citation: MA Minhui, WANG Hongru, WANG Jia. An Underwater Image Enhancement Algorithm Based on Improved MSRCR-CLAHE Fusion[J]. Infrared Technology , 2023, 45(1): 23-32.

基于改进的MSRCR-CLAHE融合的水下图像增强算法

基金项目: 

国家重点研发计划资助项目 2018YFC0309100

详细信息
    作者简介:

    马敏慧(1997-),男,硕士研究生,主要研究方向为机器视觉与图像处理。E-mail:1723164582@qq.com

    通讯作者:

    王红茹(1979-),女,工学博士,副教授,硕士生导师,研究方向为智能机器人技术。E-mail:wanghr@126.com

  • 中图分类号: TP391

An Underwater Image Enhancement Algorithm Based on Improved MSRCR-CLAHE Fusion

  • 摘要: 针对海洋复杂成像环境导致的水下图像出现颜色衰退、对比度低等问题,提出一种改进的带色彩恢复的多尺度视网膜(Multi-Scale Retinex with Color Restore,MSRCR)与限制对比度自适应直方图均衡化(Contrast Limited Adaptive Histogram Equalization,CLAHE)多尺度融合的水下图像增强算法。首先,采用带有导向滤波的MSRCR算法解决水下图像颜色衰退的问题;其次,采用带有Gamma校正的CLAHE算法以提高水下图像的对比度;最后,对经过改进的MSRCR和CLAHE处理后的图像进行多尺度融合以获得细节增强后的水下图像。实验结果表明,和其他算法相比,文中算法的峰值信噪比(Peak Signal to Noise Ratio,PSNR)平均提高了9.3914、结构相似性(Structural Similarity Index Measure,SSIM)平均提高了0.3013、水下图像评价指标(Underwater Image Quality Evaluation,UIQE)平均提高了4.7047,能实现水下图像的有效增强。
    Abstract: To address the problems of color fading and low contrast in underwater images caused by the complex imaging environment in the ocean, improved Multi-Scale Retinex with Color Restore (MSRCR) and Contrast Limited Adaptive Histogram Equalization (CLAHE) multi-scale fusion algorithms for underwater image enhancement are proposed. First, the MSRCR algorithm with guided filtering was used to solve the problem of underwater image color fading. Second, the CLAHE algorithm with Gamma correction was used to improve the contrast of underwater images. Finally, the improved MSRCR and CLAHE images were fused at multi-scale to obtain an underwater image with enhanced detail. The experimental results show that, compared with other algorithms, the Peak Signal-To-Noise Ratio (PSNR) of the proposed algorithm is improved by 9.3914 on average, and the Structural Similarity Index Measure (SSIM) and Underwater Image Quality Evaluation (UIQE) increased by 0.3013 and 4.7047 on average, respectively, which can realize the effective enhancement of underwater images.
  • 近年来,借助于深度学习等理论,视觉目标跟踪技术取得了重大突破。但现有跟踪算法大多是针对可见光场景,对于热红外目标跟踪的研究文献较少,只有LIU等人[1-4]进行了较为深入的研究。

    与可见光目标跟踪相比,热红外跟踪具有不受照明变化影响的优点,可以在完全黑暗的情况下跟踪目标。因此,热红外跟踪在灾难救援、视频监控和夜间巡逻等领域具有广阔的应用前景[5]。随着热红外成像设备在民用领域的普及化使用,热红外目标跟踪正逐步成为计算机视觉领域的一个研究热点。

    和可见光跟踪相似,热红外跟踪也面临着不少挑战。首先,热红外图像缺少颜色信息,较难获得目标对象的判别特征,从而降低了跟踪性能[6]。比如两个不同颜色的相似物体在热红外图像中几乎是相同的。除此之外,热红外跟踪还面临如遮挡、外观变化和运动模糊等挑战。

    近年来,深度学习已成功应用到视觉跟踪中,取得了一系列重要成果。与基于手工特征的跟踪器相比,基于卷积神经网络(Convolutional Neural Networks,CNN)的跟踪器可以获得更优越的跟踪性能。因为单个卷积层特征对跟踪中的各种挑战(例如形变和背景杂斑)鲁棒性不强,现有基于深度学习的跟踪算法大多是融合浅层和深层特征进行跟踪,比如HCF(Hierarchical Convolutional Features)[7]基于KCF(Kernel Correlation Filter)框架,使用预训练的VGG-19(Visual Geometry Group-19)网络提取目标的Conv3-4(Convolution 3-4)、Conv4-4、Conv5-4层特征进行融合,而TADT(Target-Aware Deep Tracking)[8]基于全卷积孪生网络(Fully-Convolutional Siamese Network,SiamFC)[9]框架使用预训练的VGG-16网络提取Conv4-1、Conv4-3层特征并进行融合等等。上述算法均属于特征层融合,并没有实现决策层融合,而且使用单一跟踪器无法有效应对复杂背景及目标外观变化等挑战因素。

    考虑到卷积神经网络的强大表征能力及其在视觉跟踪中的成功应用,本文将在可见光图像数据集上预训练的CNN用于热红外跟踪任务,并基于此设计了一个多响应图集成的热红外目标跟踪方法。

    全卷积孪生网络是ECCV 2016(European Conference on Computer Vision 2016)会议[9]上提出的一种全新的目标跟踪框架,其通过比较初始目标模板和当前帧中搜索区域的特征来进行跟踪。其实现流程可以由下式定义:

    $$ f\left( {z, x} \right) = \varphi \left( z \right)*\varphi \left( x \right) + b $$ (1)

    式中:ϕ(z)为第一帧中模板图像z对应的特征图;ϕ(x)为后续帧中待搜索区域x的特征图;*为卷积运算符,b为偏置项。图 1给出了SiamFC网络结构图。

    图  1  SiamFC网络结构
    Figure  1.  SiamFC network structure

    本文算法选择全卷积孪生网络作为目标跟踪的基本框架,主要原因在于:①全卷积孪生网络结构简单,可以在较大的搜索图像中定位目标模版,并且跟踪速度快。②在跟踪过程中目标模板不更新,可以有效应对目标遮挡等挑战。

    虽然Siamese框架是在大型视频数据集ILSVRC15(Large Scale Visual Recognition Challenge 2015)上预先训练的,但是Siamese跟踪器没有充分利用与特定目标对象相关的语义信息。因此在本文算法中,我们借鉴了TADT的做法,从一个预先训练好的CNN中选择对于目标最具判别性以及对于目标尺度变化最为敏感的卷积滤波器(特征通道)来生成目标深度特征。在本文中,我们选择使用VGG-16卷积网络来提取对于热红外目标敏感的特征。在2.2节中将给出特征通道的选择方法。

    诸如VGG、ResNet(Residual Network)等卷积网络中的参数是在庞大的数据集中预训练获得的,相对于当前要跟踪的对象存在许多冗余的特征通道信息。冗余的特征通道会占用大量的计算资源,这也是许多基于深度学习的跟踪算法执行速度较慢的原因。除此之外,冗余的特征通道还会对跟踪造成干扰,影响跟踪精度。本文在特征提取过程中进行通道选择,减少冗余特征通道对当前跟踪目标的不利影响。

    本文的通道选择是基于文献[10]提出的GCAM(Grad-Class Activation Mapping)模型来实现的。GCAM模型根据每个输入像素点的梯度来表示其属于给定类别标记的重要性,通过沿特征通道计算加权和,生成一个类活动映射。特征通道的权值是通过对该通道中所有梯度的全局平均池化(Global Average Pooling,GAP)来计算的,权值高的特征通道对当前类的贡献大。公式如下:

    $$ {\varDelta _i} = {G_{{\text{AP}}}}\frac{{\partial L}}{{\partial {z_i}}} $$ (2)

    式中:Δi表示计算出的第i个通道的重要性;GAP是全局平均池化函数;L是损失函数;zi指的是第i个过滤器的输出特征。

    借鉴该理论,本文算法在提取深度特征后计算每个特征通道的梯度值,从中选择最能标记目标特征也就是重要性较高的特征通道进行后续运算。

    虽然当前主流跟踪算法都使用了深度特征,但使用单个跟踪器在某些场景下仍然很难获得优秀的跟踪性能。基于此,本文提出利用多个互补的卷积层特征构建一个集成式热红外目标跟踪方法。本文利用VGG-16卷积网络分别提取待跟踪目标的Conv4-1、Conv4-2、Conv4-3和Conv5-1层特征,并形成如下3种特征组合:{Conv4-2、Conv4-1}、{Conv4-3、Conv4-1}、{Conv5-1、Conv4-1}。利用上述3种特征组合分别设计跟踪器1、跟踪器2、跟踪器3,在3种特征组合中均包含Conv4-1层,这是因为文献[8]的实验表明Conv4-1层特征最适合用来进行目标的尺度估计。每个跟踪器的计算过程都是相似的,下面以跟踪器1为例给出具体跟踪过程:

    1)提取待跟踪目标的Conv4-1和Conv4-2层特征(每层共包含512个特征通道);

    2)利用2.2节中提到的方法计算所有特征通道的梯度信息,选择对于目标活动和尺度变化较为敏感的特征通道参与后序的互相关操作。经过通道选择后,降低了卷积层的维度,提高了卷积层的有效性。本文按照重要性高低对所有特征通道进行排序并选择了Conv4-2层的前300个通道和Conv4-1层的前80个通道进行融合参与后续运算。

    3)通过互相关操作获取目标响应图。

    利用2.3节的方法可以获得多个响应图,在本节将给出利用KL散度将多个响应图进行集成的过程。

    我们可以用Pk表示第k个跟踪器产生的目标位置响应图,QRM×N表示集成后的响应图。然后采用KL散度度量他们之间的广义距离,该距离越小则认为他们之间的分布差异越小,也就意味着集成后的概率图Q更能反映每一个概率图Pk中一致的部分,即目标出现概率最大的区域。通过最小化该KL散度,可以达到优化概率图Q的目的,具体过程如下式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{k = 1}^n {{\text{KL}}({P^k}||Q)} $$ (3)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    其中:

    $$ {\text{KL}}({P^k}||Q) = \sum\limits_{ij} {p_{ij}^k} \log \frac{{p_{ij}^k}}{{{q_{ij}}}} $$ (4)

    式中:pijqij分别表示概率图P与概率图Q中的第(i, j)个元素。pijk表示概率图Pk中目标位置为(i, j)的概率,i={1, 2, …, M}, j={1, 2, …, N},并且服从$ \sum {p_{ij}^k} = 1 $。

    由于在跟踪场景中可能存在背景杂斑等干扰,因此在响应图中会存在“多峰”现象,即存在多个目标位置响应。文献[1]提供了一个行之有效的去噪策略,本文借鉴该策略将2.3节中得到的响应图进行过滤,下式给出过滤过程:

    $$ {P^{k, z}} = {P^k} \odot {P^z} $$ (5)

    式中:k={1, 2, …, n-1},z={k+1, k+2, …, n}。

    在式(5)中n代表跟踪器的数量;⊙表示点乘操作。按照式(5)进行去噪处理可以使过滤后的概率图具有更高的置信度,提高跟踪的精确度。n个响应图进行两两去噪处理后可以得到(n(n-1))/2个噪音更少、置信度更高的概率图A={P1, 2, P1, 3, …, P2, 3, …Pn-1, n}。因此公式(3)可以被重写成如下形式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} $$ (6)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    根据拉格朗日乘数法,令:

    $$ F({p_{ij}}, {q_{ij}}) = \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} + \lambda (\sum {{q_{ij}} - 1} ) $$ (7)

    对所有的pijqij求偏导并令F′(p)和F′(q)等于0,最终可求得:

    $$ Q = \frac{2}{{n(n - 1)}}\sum\limits_{p \in A} p $$ (8)

    通过取式(8)中响应图Q中的最大值可以得到目标的位置(x, y):

    $$ (x, y) = \arg \mathop {\max }\limits_{i, j} Q(i, j) $$ (9)

    我们在Win10系统中使用Matlab2016b编程语言实现了所提出的目标跟踪算法。为了验证本文所提算法的有效性,在配备I7-10700 2.9 GHz CPU和GTX-1080 GPU的PC上进行了实验,对比算法有HCF[7]、SiamFC[9]、TADT[8]、MDNet(Multi-Domain Convolutional Neural Networks)[11]、ATOM(Accurate Tracking by Overlap Maximization)[12]、MCFTS(Multi-Layer Convolutional Features for Thermal Infrared Tracking)[1]、HSSNet(Hierarchical Spatial-Aware Siamese Network)[2]、MLSSNet(Multi-Level Similarity Network)[3]、MMNet(Multi-Task Matching Network)[4]。其中MCFTS、MLSSNet、HSSNet和MMNet是专用红外目标跟踪算法,其他5种算法均为近年来优秀的可见光跟踪算法。

    因为目前公开的红外视频数据集非常少,所以很多学者使用VOT-TIR16(The Thermal Infrared Visual Object Tracking 2016)[13]和PTB-TIR(Thermal Infrared Pedestrian Tracking Benchmark)[14]作为热红外跟踪评估数据集。VOT-TIR16数据集中视频序列过少,只包含25个红外视频序列,部分跟踪算法可以通过调参的方式去适应。PTB-TIR数据集中虽然包含60个红外视频序列,但跟踪目标均为行人,类别较为单一,无法评估跟踪算法对通用目标的跟踪效果。

    2020年8月发布的LSOTB-TIR[15]有效解决了上述问题。LSOTB-TIR是迄今为止规模最大,多样性最强的热红外目标跟踪数据集。包含120个跟踪序列,涵盖22个目标类别,超过8.2万帧图像。LSOTB-TIR中定义了4种场景属性,这4种场景中的红外视频分别由车载、手持、无人机载和监控设备拍摄,保证了视频来源的多样性。著名的可见光数据集OTB-100(Object Tracking Benchmark)定义了11种挑战属性,LSOTB-TIR则定义了红外目标跟踪中的12种挑战属性。在这12种挑战属性中,有8种属性和OTB-100中的类似,分别为遮挡、出视野、背景杂斑、形变、尺度变化、低分辨率、快速运动和运动模糊,这里不再赘述。剩余的4种为热红外跟踪中特有的挑战属性,具体定义在表 1中列出。

    表  1  LSOTB-TIR定义的的4种热红外挑战属性
    Table  1.  Four thermal infrared challenge attributes defined by LSOTB-TIR
    Infrared challenge attributes Specific definitions
    Aspect Ratio
    Variation(ARV)
    The aspect ratio of the target exceeds [0.5, 2] during tracking
    Intensity Variation
    (Ⅳ)
    The intensity of the target changes during tracking
    Thermal Crossover
    (TC)
    Two targets of the same intensity cross each other
    Distractor(DIS) There are interfering objects similar to the target around the target
    下载: 导出CSV 
    | 显示表格

    因为LSOTB-TIR的全面性和多样性,所以本文选择使用LSOTB-TIR作为评估数据集。需要说明的是,本文并没有选择全部视频序列进行测试,而是从上述4种应用场景数据集中随机选择了40个典型红外短视频序列进行测试,这是因为LSOTB-TIR没有跟踪失败重启机制,在长视频序列中如果在某一帧丢失目标并且在后续帧无法找回将极大影响跟踪成功率,采用短视频序列测试更加公平。本文所提算法在40个视频序列上的平均跟踪速度约为11.2 FPS。

    图 2为本文算法与MDNet等9种对比算法在LSOTB-TIR上生成的总精确度图和成功率图,本文提出的算法在这两项重要指标上均排名第一。与参照算法TADT相比,跟踪精确度和成功率分别提高了3.6%和4.2%,大幅超过了MMNet等红外目标跟踪算法,证明了本文采用的响应图集成策略取得较好的效果。图 3给出了10种算法在变形、背景杂斑、运动模糊、相似物干扰等4种复杂场景下的精确度曲线图,本文所提算法均体现了较强的鲁棒性。相比优秀的可见光跟踪器ATOM,本文算法的跟踪精确度率分别提高了13.2%、10.5%、13.9%和27.8%,说明本文所提算法更适合于红外目标跟踪。

    图  2  10种算法在LSOTB-TIR的距离精度曲线图和成功率曲线
    Figure  2.  Distance accuracy curves and success rate curves of ten algorithms in LSOTB-TIR
    图  3  10种算法在LSOTB-TIR上4种挑战性场景下精确度曲线图
    Figure  3.  Accuracy curves of ten algorithms in four challenging scenarios of LSOTB-TIR

    为了更直观地评估本文所提算法的跟踪性能,图 4给出了本文算法与另外3种在LSOTB-TIR数据集上表现优异的算法(TADT、ATOM和MDNet)在car_S_003、cow_H_001、person_S_015、street_S_001等4个视频序列的可视化跟踪结果。这4个视频序列非常具有代表性,包括汽车、动物、行人和环境复杂的街道,几乎涵盖了重要种类的地面红外目标。定性分析过程如下:

    图  4  本文算法与另外三种算法跟踪结果比较
    Figure  4.  Comparison of tracking results with other three algorithms

    1)car_S_003视频序列中跟踪目标为行进中的汽车。ATOM跟踪器在第9帧时即受到周围相似物的干扰而发生漂移,第52帧中TADT和MDNet也接近丢失目标,第105帧时只有本文算法可以准确跟踪。

    2)cow_H_001跟踪目标为右起第二只羊,从视频截图可以看出,ATOM和MDNet均受到相似物和周围环境干扰丢失目标,只有本文算法和TADT可以持续准确跟踪。

    3)person_S_015视频序列中跟踪目标为右边的行人,旁边有个撑伞的行人和其同步前进,存在相似物及热交叉等干扰。ATOM、TADT分别在第30帧、第210帧时跟踪失败。相比MDNet,本文算法定位更为精确。

    4)street_S_001视频序列中跟踪目标为街道上背包的行人,该视频序列包含热交叉、背景杂斑、遮挡等多种挑战。从视频截图可以看出其他几种算法跟踪框均漂移到相似的行人上,而本文算法因为集成了多个跟踪器可以正确跟踪。

    本节通过标准数据集LSOTB-TIR上的消融实验来验证算法相关模块设计的合理性。首先,为了验证通道选择的有效性,以跟踪器1(Ours_1)为例,比较了不进行通道选择(No_CS)和进行通道选择的效果对比。如图 5(a)所示,本文算法在只选择了300个通道的情况下跟踪精度还提高了0.6%,证明冗余通道可以丢弃,并且丢弃冗余通道后跟踪速度有了显著提升,因此利用通道选择后的跟踪器参与后续集成更加高效。其次,为了验证集成方法的有效性,将本文提出的集成方法(Ours)与跟踪器1(Ours_1)、跟踪器2(Ours_2)及跟踪器3(Ours_3)分别单独跟踪的结果进行了对比。如图 5(b)所示,可以看出集成算法较其他3个单独跟踪方法在跟踪精确度上分别提升了2.5%、3.6%和1.6%。消融结果证明了本文所提算法的有效性。

    图  5  消融实验
    Figure  5.  Ablation experiment

    基于简洁高效的全卷积孪生网络框架提出了一种多响应图集成的红外目标跟踪算法。算法的创新之处在于利用预训练的VGG-16网络来提取热红外目标的深度特征并进行通道选择,进而通过对不同层次的深度特征进行组合设计了3个跟踪器。最后基于KL散度将3个跟踪器的响应图进行集成以获取最优结果。为了验证本文算法的实际效果,在大型热红外数据集LSOTB-TIR上进行了测试并和近年来几种先进的目标跟踪算法进行了比较。实验结果表明,本文所提算法性能良好,具有一定的实际应用价值。

  • 图  1   不同MSR的处理结果

    Figure  1.   Processing results of different MSR

    图  2   局部细节图

    Figure  2.   Local diagrams in details

    图  3   CLAHE算法直方图变换过程

    Figure  3.   Histogram transformation process of CLAHE algorithm

    图  4   不同直方图均衡算法的处理结果

    Figure  4.   Processing results of different histogram equalization algorithms

    图  5   颜色增强图像的权重图

    Figure  5.   Weight diagram of color enhanced images

    图  6   对比度增强图像的权重图

    Figure  6.   Weight diagram of contrast enhanced image

    图  7   图像多尺度融合

    Figure  7.   Image multi-scale fusion and reconstruction

    图  8   本文算法流程

    Figure  8.   Algorithm flow chart of this paper

    图  9   10种不同图像增强算法处理结果

    Figure  9.   Results of ten different image enhancement algorithms

    表  1   不同算法PSNR性能比较

    Table  1   PSNR performance comparison of different algorithms

    PNSR Original Reference[3] Reference[7] Reference[13] Reference[16] Ours
    Picture 1 - 13.8014 14.2261 16.3929 21.0436 24.2896
    Picture 2 - 6.2876 6.7461 6.2519 14.0142 18.9873
    Picture 3 - 15.9585 12.5442 13.0328 20.9045 22.3212
    Picture 4 - 7.3254 7.9521 8.1265 13.2158 19.9914
    Picture 5 - 12.9871 14.8561 15.8516 17.3258 20.5563
    Picture 6 - 15.6243 15.9985 16.2546 18.2319 24.7963
    Picture 7 - 11.8274 13.2873 14.7931 19.2291 19.9639
    Picture 8 - 10.2034 11.2544 15.2698 16.3245 19.3312
    Picture 9 - 14.5758 15.9152 18.3223 20.5513 24.3698
    Picture10 - 11.4522 12.3756 13.4851 16.6334 19.3497
    下载: 导出CSV

    表  2   不同算法SSIM性能比较

    Table  2   Performance comparison of different SSIM algorithms

    SSIM Original Reference[3] Reference[7] Reference[13] Reference[16] Ours
    Picture 1 - 0.5609+ 0.5943 0.8321 0.8384 0.9611
    Picture 2 - 0.5223 0.5081 0.6869 0.8612 0.8874
    Picture 3 - 0.6186 0.7926 0.8031 0.8299 0.9212
    Picture 4 - 0.5743 0.5178 0.8163 0.8752 0.9649
    Picture 5 - 0.7121 0.7963 0.8263 0.8998 0.9088
    Picture 6 - 0.6933 0.7432 0.7966 0.8364 0.8997
    Picture 7 - 0.6074 0.5927 0.6988 0.7411 0.8796
    Picture 8 - 0.5871 0.5988 0.6355 0.7843 0.8894
    Picture 9 - 0.6121 0.6028 0.7123 0.7652 0.9126
    Picture 10 - 0.5386 0.6103 0.7521 0.8419 0.8696
    下载: 导出CSV

    表  3   不同算法UIQE性能比较

    Table  3   UIQE performance comparison of different algorithms

    UIQE Original Reference[3] Reference[7] Reference[13] Reference[16] Ours
    Picture 1 2.6449 4.9242 4.6436 5.0271 3.6167 5.2238
    Picture 2 1.7252 4.0814 0.2696 3.9252 2.1831 4.9121
    Picture 3 1.9542 3.0251 1.3447 3.5738 2.2406 4.4633
    Picture 4 1.5241 4.5296 1.0328 4.2153 3.6574 5.9685
    Picture 5 1.7551 3.1221 3.0217 3.9746 4.9962 6.2312
    Picture 6 1.9978 2.2173 2.1179 4.5023 4.8785 6.0178
    Picture 7 1.2212 1.3258 2.3647 4.2589 4.5565 6.9872
    Picture 8 2.0121 2.2365 3.4562 4.2199 4.8456 5.5463
    Picture 9 2.7853 2.8742 3.9893 4.5631 4.7987 6.2971
    Picture 10 0.6721 2.9255 3.2372 3.4801 1.5899 3.6943
    下载: 导出CSV
  • [1]

    Mishra A, Gupta M, Sharma P. Enhancement of underwater images using improved CLAHE[C]//2018 International Conference on Advanced Computation and Telecommunication (ICACAT), 2018: 1-6.

    [2]

    Sun J. Underwater Image Enhancement Algorithm Based on MSRCR[J]. Radio Engineering, 2019, 49(9): 783-787. DOI: 10.3969/j.issn.1003-3106.2019.09.006

    [3]

    WANG F, ZHANG B, ZHANG C, et al. Low-light image joint enhancement optimization algorithm based on frame accumulation and multi-scale Retinex[J]. Ad Hoc Networks, 2020, 113(4): 102398.

    [4]

    Dhanya P R, Anilkumar S, AA Balakrishnan, et al. L-CLAHE intensification filter (L-CIF) algorithm for underwater image enhancement and color restoration[C]//2019 International Symposium on Ocean Technology (SYMPOL). IEEE, 2020: 117-128.

    [5] 朱佳琦, 周丽丽, 闫晶晶, 等. 结合改进红通道先验与幂律校正CLAHE的水下图像复原方法[J]. 红外技术, 2021, 43(7): 696-701. http://hwjs.nvir.cn/article/id/f67e3336-e395-449d-88a7-3752f030808f

    ZHU J Q, ZHOU L L, YAN J J, et al. Underwater image restoration method combining improved red channel prior and power law correction CLAHE[J]. Infrared Technology, 2021, 43(7): 696-701. http://hwjs.nvir.cn/article/id/f67e3336-e395-449d-88a7-3752f030808f

    [6] 范新南, 鹿亮, 史朋飞, 等. 结合MSRCR与多尺度融合的水下图像增强算法[J]. 国外电子测量技术, 2021, 40(2): 6-10. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202102004.htm

    FAN X L, LU L, SHI P F, et al. Underwater image enhancement algorithm by MSRCR and multi-scale fusion[J]. Foreign Electronic Measurement Technology, 2021, 40(2): 6-10. https://www.cnki.com.cn/Article/CJFDTOTAL-GWCL202102004.htm

    [7] 张薇, 郭继昌. 基于白平衡和相对全变分的低照度水下图像增强[J]. 激光与光电子学进展, 2020, 57(12): 213-220. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202012022.htm

    ZHANG W, GUO J C. Low illumination underwater image enhancement based on white balance and relative total variation[J]. Advances in Laser and Optoelectronics, 2020, 57(12): 213-220. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ202012022.htm

    [8]

    TENG L, XUE F. Remote sensing image enhancement via edge-preserving multiscale retinex[J]. IEEE Photonics Journal, 2019, 11(2): 1-10.

    [9]

    Rahman Z, Jobson D J, Woodell G. Retinex processing for automatic image enhancement[J]. J Electronic Imaging, 2004, 13(1): 100-110. DOI: 10.1117/1.1636183

    [10]

    HE K, SUN J. Guided image filtering[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397-1409.

    [11]

    Kaur H, Rani J. MRI brain image enhancement using histogram equalization techniques[C]//2016 International Conference on Wireless Communications, Signal Processing and Networking (WiSPNET), 2016: 770-773.

    [12] 吕侃徽, 张大兴. 基于自适应直方图均衡化耦合拉普拉斯变换的红外图像增强算法[J]. 光学技术, 2021, 47(6): 747-753. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJS202106018.htm

    LYU K H, ZHANG D X. Infrared image enhancement algorithm based on adaptive histogram equalization coupled with Laplace transform[J]. Optical Technology, 2021, 47(6): 747-753. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJS202106018.htm

    [13] 王晓俊, 李莉莉. 基于CLAHE-DCP融合的水下图像增强[J]. 中国水运(下半月), 2021, 21(8): 60-62. https://www.cnki.com.cn/Article/CJFDTOTAL-ZSUX202108027.htm

    WANG X J, LI L L. Underwater image enhancement based on CLAHE-DCP fusion[J]. China Water Transport (the second half of the month), 2021, 21(8): 60-62. https://www.cnki.com.cn/Article/CJFDTOTAL-ZSUX202108027.htm

    [14] 王梓丞, 尹勇. 基于色彩平衡及校正的水下图像增强算法[J]. 舰船科学技术, 2021, 43(21): 154-159. https://www.cnki.com.cn/Article/CJFDTOTAL-JCKX202121030.htm

    WANG Z C, YI Y. Underwater image enhancement algorithm based on color balance and correction[J]. Ship Science and Technology, 2021, 43(21): 154-159. https://www.cnki.com.cn/Article/CJFDTOTAL-JCKX202121030.htm

    [15]

    MA Jinxiang, FAN Xinnan, ZHU Jianjun, et al. Multi-scale retinex with color restoration image enhancement based on Gaussian filtering and guided filtering[J]. International Journal of Modern Physics B, 2017, 31: 16-19.

    [16] 杨亚绒, 李恒, 赵磊等. 改进的同态滤波与多尺度融合的水下图像增强[J/OL]. 机械科学与技术, 2021, 12(5): 1-9.

    YANG Y R, Li H, ZHAO L, et al. Improved homomorphic filtering and multi-scale fusion underwater image enhancement[J/OL]. Mechanical Science and Technology, 2021, 12(5): 1-9.

    [17]

    Horé A, Ziou D. Image quality metrics: PSNR vs. SSIM[C]//20th International Conference on Pattern Recognition, ICPR, 2010, 4(3): 28-29.

    [18]

    YANG Miao, Arcot Sowmya. An underwater color image quality evaluation metric[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2015, 24(12): 24-29.

图(9)  /  表(3)
计量
  • 文章访问数:  325
  • HTML全文浏览量:  53
  • PDF下载量:  73
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-02-19
  • 修回日期:  2022-04-05
  • 刊出日期:  2023-01-19

目录

/

返回文章
返回