基于注意力机制与特征重建的水下图像增强

王燕, 张金峰, 王丽康, 范向辉

王燕, 张金峰, 王丽康, 范向辉. 基于注意力机制与特征重建的水下图像增强[J]. 红外技术, 2024, 46(9): 1006-1014.
引用本文: 王燕, 张金峰, 王丽康, 范向辉. 基于注意力机制与特征重建的水下图像增强[J]. 红外技术, 2024, 46(9): 1006-1014.
WANG Yan, ZHANG Jinfeng, WANG Likang, FAN Xianghui. Underwater Image Enhancement Based on Attention Mechanism and Feature Reconstruction[J]. Infrared Technology , 2024, 46(9): 1006-1014.
Citation: WANG Yan, ZHANG Jinfeng, WANG Likang, FAN Xianghui. Underwater Image Enhancement Based on Attention Mechanism and Feature Reconstruction[J]. Infrared Technology , 2024, 46(9): 1006-1014.

基于注意力机制与特征重建的水下图像增强

基金项目: 

国家自然科学基金 61863025

详细信息
    作者简介:

    王燕(1971-),女,甘肃泾川人,硕士,教授,硕导,研究方向为模式识别与人工智能。E-mail: 1970603688@qq.com

  • 中图分类号: TP391.4

Underwater Image Enhancement Based on Attention Mechanism and Feature Reconstruction

  • 摘要:

    针对现有水下图像增强方法缺少对图像中关键目标物体的关注,对图像边缘细节信息的增强效果不佳等问题,提出一种基于注意力机制与特征重建的水下图像增强方法。首先,残差模块联合CBAM(Convolutional Block Attention Module)模块构建超像素图像增强模型,提升水下图像整体质量的同时改善图像中目标物体的清晰度和可视性;然后,设计一种边缘差分模块,使模型关注图像的高频信息,增强图像中目标物体的边缘细节;最后,构建多粒度特征重建模块,重构超像素图像增强模块的隐藏层特征,还原输入图像,进一步优化模型参数。实验结果表明,相比于对比方法,本文模型在SSIM(Structural Similarity)、PSNR(Peak Signal to Noise Ratio)和UIQM(Underwater Image Quality Measures)三个评价指标上均有提升,具备更好的增强性能。尤其在增强水下图像关键目标物体上具有显著的效果。

    Abstract:

    To address the issues of existing underwater image enhancement methods, which lack focus on critical target objects in images and exhibit poor enhancement effects on edge detail information, in this study, an underwater image enhancement approach is proposed based on an attention mechanism and feature reconstruction. First, a superpixel image enhancement model is constructed by integrating the residual module with the Convolutional Block Attention Module (CBAM), which not only improves the overall quality of underwater images but also enhances the clarity and visibility of target objects in images. Second, an edge difference module is designed to enable the model to focus on high-frequency information in the images, thereby strengthening the edge details of the target objects. Finally, a multi-granularity feature reconstruction module is built to reconstruct the hidden layer features of the superpixel image enhancement model, restore the input image, and further optimize the model parameters. Experimental results demonstrate that when compared with contrastive methods, the proposed model realizes improvements in three evaluation metrics: Structural Similarity (SSIM), Peak Signal to Noise Ratio (PSNR), and Underwater Image Quality Measures (UIQM), indicating better enhancement performance. Notably, it exhibits a remarkable effect in enhancing critical target objects in underwater images.

  • 石料作为一种广泛存在于自然界的岩石材料,一直是土木工程领域的研究热点[1-2]。岩石骨料颗粒越接近立方体,其制备沥青混合料的骨架结构嵌挤力越强,进而有利于提高沥青路面的抗变形能力与耐久性[3]。因此,研究骨料形态特征的快速评价方法对工业生产质量控制和工程实践应用具有重要的指导意义。

    传统骨料形态评价研究主要集中于二维图像体系,例如汪海年等[4]为研究骨料形态特征与其抗磨耗性能之间的关系,基于二维图像测量系统的形态参数球度、梯度棱角和综合指标,建立骨料抗磨耗性能的快速评价手段。Yu H. N.等[5]通过AIMSII影像测量系统研究骨料棱角性指数与球度指标对沥青混合料动态模量及其抗变形能力的影响,结果表明随着骨料磨损时间增加,其棱角性指数逐渐减小,球度逐渐增大,沥青混合料抗永久变形能力有所降低,并且评价指标之间具有相关性。但是,骨料形态特征的复杂性和可变性不仅限于二维平面,物理力学的各向异性还应考虑三维形态的可变性。此外,现有行业标准要求沥青混合料粗骨料形态尺寸3:1型(最长边:最短边)针片状颗粒含量不大于15%[6],而现有测试方法主要采用人工游标卡尺测量,评价效率低。针对该问题,周建昆等[7]基于数字图像技术的骨料针片状识别算法,能快速计算粗骨料针片状含量,随着骨料颗粒粒径的减小,图像评价指标的准确性会降低。这主要是由于骨料二维轮廓高度依赖于颗粒的投影方向,并且很难确定骨料形态的代表性轮廓,显然二维图像分析不能满足使定量结果反应骨料颗粒三维特征信息的要求。

    近几年,学者们一直在探索更准确、更有效的方法来快速量化骨料的形态特征,通过在二维图像的基础上添加高度信息得到三维图像,可以更准确地表征骨料特征,并已取得一些成果。目前常使用的方法主要是基于激光扫描技术和双目(多目)视觉的三维重建技术[8-9]。张龙飞等[10]基于激光扫描技术获取了真实骨料三维形状特征,并且构建的细观模型能够反映混合料内骨料真实形态和级配等细观特征。Song J.[11]利用三维激光扫描技术重建3种类型骨料的实体模型,提出了拟合椭球算法和拉普拉斯平滑算法对骨料整体形状、角度和表面粗糙度的表征方法,为后续定量分析沥青-骨料粘附性与粗骨料形貌的关系提供了参数基础。虽然这些技术可以高精度地重建骨料三维模型,但其设备价格昂贵,限制其推广应用。基于上述考虑,采用摄影测量技术重建骨料三维特征相对更加容易实现,其主要思想是基于摄影测量系统,从多个方向获取骨料的二维图像信息,然后通过多视角二维图像构建三维模型[12]。Ozturk H. I.[13]采用摄影测量法测定了不同来源的石料三维形态指标和形状特征,并与二维评价指标进行比较,评价准确率显著提高,可作为现有三维重建技术的替代方案。但是目前该测试方法在路用骨料评价领域应用较少,这主要是由于骨料的生产与应用环境比较复杂,在灰尘或偏暗环境中,可见光相机在进行立体匹配和三维重建时容易引起误差。相比之下,红外成像具有良好的穿透能力,不易受外界环境影响。在某些复杂场景中,红外成像具有显著的优势。随着红外成像的不断发展及其成本的降低,其已在各个领域得到应用[14-15]

    为降低环境光照因素影响,以及在未来能够便于实现生产与施工现场的快速自动化检测技术,本方法首先基于温度辅助增强骨料表面轮廓的思想,设计了骨料三维重建装置,并基于python软件编写针对热红外图像与可见光图像的校准、去噪算法,提高图像质量,在此基础上设计了路用骨料的相对深度估计算法,并生成相应的点云数据集,实现红外深度图像的三维重建,以便间接反映骨料表面特征,改善骨料三维重建图像的鲁棒性和准确性,以期为路用骨料形态评价及其性能决策提供科学指导,也可为其它材料样品的三维特征分析提供借鉴与参考。

    路用骨料三维重建技术的重点在于获取骨料的深度信息,在骨料深度信息已知的条件下,通过点云数据的配准及融合,即可实现骨料的三维重建。

    由普朗克黑体辐射定律可知,热辐射中的红外波段会携带辐射体的能量信息,红外热像仪通过探测目标的红外辐射能量分布,从而获得其表面的温度场分布。本实验通过施加间断有序的高速热风场可以进一步加强骨料表面温度阶梯变化,并根据温度分布的辅助信息与可见光图像融合提取骨料的相对深度信息,更有利于骨料三维特征的提取,测试方法示意图如图 1所示。

    图  1  实验测试装置示意图
    Figure  1.  Schematic diagram of experimental testing device

    红外深度估计测试原理示意图如图 2所示,在环境温度稳定条件下,对骨料施加有序的高速热风场,持续时间为T,在此过程中采集骨料的红外图像与可见光图像数据。设每一帧图像中的像素强度为I(x, y, t),在T时间后,因为这些像素红外强度的变化,所以有:

    $$ D\left( {x,y} \right) = {\text{Mean}}\left( {\sum\limits_1^T {I\left( {x,y,t} \right)} } \right) $$ (1)
    $$ {\text{RD}}\left( {x,y} \right) = \frac{{D\left( {x,y} \right) - D{{\left( {x,y} \right)}_{\min }}}}{{D{{\left( {x,y} \right)}_{\max }} - D{{\left( {x,y} \right)}_{\min }}}} $$ (2)
    图  2  红外深度图像测试原理示意图
    Figure  2.  Schematic diagram of infrared depth image testing principle

    式中:D(x, y)为红外目标数据集,RD(x, y)为相对深度估计。根据以上方法,对数据集D(x, y)中的连续红外图像进行相对深度计算。

    相对深度估计是通过计算每个像素与其它像素的相对深度差异,间接反映骨料表面的几何形状。因此,通过建立基准坐标,相对深度图像经过坐标转换可进一步计算出点云数据,计算过程:

    1)将像素点的坐标从图像坐标系转换到相机坐标系。设像素点(i, j)的深度值为d(i, j),相机的内参(fx, fy, u0, v0)已经通过相机标定得知,则该像素点在相机坐标系C(XC, YC, ZC)的计算公式如下式:

    $$ \left\{ {\begin{array}{*{20}{l}} {{X_C} = \frac{{\left( {i - {u_0}} \right) \cdot d\left( {i,j} \right)}}{{{f_x}}}} \\ {{Y_C} = \frac{{\left( {j - {v_0}} \right) \cdot d\left( {i,j} \right)}}{{{f_y}}}} \\ {{Z_C} = d\left( {i,j} \right)} \end{array}} \right. $$ (3)

    式中:XCYCZC为相机坐标系;ij为图像像素坐标;d(i, j)为RD(x, y)基于克里金插值(Kriging interpolation)算法得到的数据集。

    2)将相机坐标系中的坐标转换到世界坐标系中。设相机的外部参数为旋转矩阵R和平移向量T,则该像素点在世界坐标系中的坐标W(XWYWZW,)为:

    $$ \left\{ {\begin{array}{*{20}{c}} {{X_{\text{W}}} = R\left( {1,1} \right) \times {X_C} + R\left( {1,2} \right) \times {Y_C} + R\left( {1,3} \right) \times {Z_C} + T\left( 1 \right)} \\ {{Y_{\text{W}}} = R\left( {2,1} \right) \times {X_C} + R\left( {2,2} \right) \times {Y_C} + R\left( {2,3} \right) \times {Z_C} + T\left( 2 \right)} \\ {{Z_{\text{W}}} = R\left( {3,1} \right) \times {X_C} + R\left( {3,2} \right) \times {Y_C} + R\left( {3,3} \right) \times {Z_C} + T\left( 3 \right)} \end{array}} \right. $$ (4)

    式中:XWYWZW为点云坐标系;RT为世界坐标系与相机坐标系的转换关系。

    首先收集路用骨料,并筛取关键筛孔为16 mm、13.2 mm、9.5 mm、4.75 mm、2.36 mm的骨料各10颗。计算机系统为Windows10,CPU为i7-14650HX,GPU为RTX 4060,热像仪为FLIR A600,分辨率640×480,处理流程如图 3所示,其中以粒径为4.8 mm、13.7 mm的两个骨料进行示意,三维特征重建效果如图 4所示。

    图  3  红外深度图像测试流程
    Figure  3.  Infrared depth image testing flowchart
    图  4  骨料三维特征重建
    Figure  4.  Reconstruction of aggregate 3D features

    路用骨料粒度特征与其混合料级配有显著的相关性,现有研究表明,沥青混合料具有连续合理的级配分布,将会表现出更高的抗压强度[16]。因此,如果能够建立快速的骨料粒度提取与评价方法,将会对沥青混合料级配的快速调整提供可能。由于骨料的空间结构比较复杂,可能存在数百个顶点,如果直接采用骨料的结构来检测,计算量会非常庞大,而采用包围体,则可以有效排除不相交、不重叠的情况,提高计算效率。

    在计算机图形学与计算几何领域,包围体(Bounding Volume)是指把物体包容起来的密闭空间。基于python的Ritter算法求解上述骨料三维模型的最小包围球,进而通过计算球体直径反应骨料的粒度特征,骨料三维模型最小包围球求解效果,及其与实际骨料粒径的相关性曲线分别如图 56所示。

    图  5  骨料的最小包围球
    Figure  5.  Minimum bounding volume of aggregate
    图  6  骨料模型粒度与实际粒径的相关性曲线
    Figure  6.  Correlation curve of aggregate model particle size with its actual particle size

    图 5可知,Ritter算法能够计算出与骨料三维模型贴合效果较好的包围球,计算误差较小。由图 6可知,通过提取骨料三维模型包围球的特征,建立50个骨料三维模型粒度与其实际粒径关系曲线的拟合度较好,其总体相关系数达到0.9916,属于极强相关性,并且检验P值为1.87×10-4,远小于0.05。所以,在显著性水平为0.05下,可认为拟合函数的曲线关系是显著的。说明通过该方法计算的三维粒度能够较好的体现出骨料球体形态特征,对于其级配的划分归类具有一定的指导作用。此外,由于所选取的路用骨料的粒径并非均匀分布,而是按照级配设计的关键筛孔选取,可以看出其数据分布具有显著的局部特征,并且关键筛孔小于13.2 mm时,其局部数据与拟合曲线的离散程度有所增大,但对其三维模型的最大粒度划分并未产生影响,具有显著的聚类效应。因此,在有限的试验环境条件下,该评价方法可以快速、准确计算出混合料的级配分布情况。

    为建立骨料三维模型的空间尺度特征,基于点云集最优包围空间的算法,求解三维模型的有向包围盒(Oriented bounding box,OBB)。该类型包围盒是一种包含骨料且相对任意坐标轴方向的最小长方体。OBB最大特点是其方向的任意性,这使得它可以根据骨料的形状特点尽可能紧密包围,但也使得相交测试变得复杂,算法时间相对较长。因此,为了提高特征的准确性,主要以OBB算法求取骨料的三维特征。计算结果如图 7所示,平均计算时间约为0.103 s,OBB能紧密覆盖所包围的骨料模型,且不存在旋转偏移误差,计算准确性较高。说明OBB包围适合评价路用骨料的三维尺度特征,并进一步计算OBB的长、宽、高尺度信息,建立骨料三维模型库的OBB尺度与骨料实际尺寸的相关性曲线,如图 8所示。

    图  7  骨料三维模型的有向包围盒
    Figure  7.  Oriented bounding box of three-dimensional aggregate model
    图  8  骨料三维模型尺度与其实际尺寸相关曲线
    Figure  8.  Correlation curve between the scale of the three-dimensional aggregate model and its actual size

    图 8可知,骨料三维模型尺度与其实际尺寸的整体拟合曲线相关系数为0.8938,该值低于三维模型粒度评价指标的相关性,说明三维尺度特征的适应性有所降低。从图中拟合曲线和数据分布特征可以看出,OBB的长度、宽度、高度与骨料实际对应尺寸的相关性分布有所不同,需要进一步分析在不同关键筛孔下,骨料三维模型的长、宽、高分别与对应实际尺寸相关系数变化规律,如图 9所示。从该图可以看出,不同关键筛孔的OBB长度、宽度与骨料实际尺寸的相关系数分布曲线相近,而OBB高度模拟结果的相关系数相对较小,平均降低幅度在7.4%。说明该评价方法对骨料长度、宽度的提取效果较好,而三维高度信息提取过程产生较大的离散性。其主要原因在于点云三维重建作为一种特征统计,其高度常受到骨料摆放形态、温度场角度及反射情况的影响较大,视觉场景上其红外深度图像的边缘特征变化不明显,在去噪过程中更容易受到骨料表面倾斜度和点云法向量计算精度的影响,进而引起三维重建结构的高度特征产生较大离散性以及较弱的鲁棒性,使其相关系数降低。

    图  9  基于关键筛孔的骨料三维模型尺度与其实际尺寸相关系数分布雷达图
    Figure  9.  Radar plot of the distribution of the correlation coefficients between the scale of the 3D model of aggregate and its actual size based on key sieve holes

    随着关键筛孔逐渐降低,OBB长度、宽度的相关系数整体是减小趋势,在关键筛孔13.2 mm处其相关系数分别取得最大值0.9866、0.9913,相对关键筛孔2.36 mm,其平均降低幅度为7.7%。说明随着骨料尺寸的减小,该评价方法的区分度会有所降低,使得三维模型轮廓信息提取产生一定的离散性,这主要是因为骨料粒径越小,其热传导介质受外界环境影响增大,在相同温度场作用下,骨料轮廓关键点与其周围领域点的区分度减弱,对于噪声的抵抗能力有所降低,使得二维重建结构的计算精度减小,进而引起相关系数降低,但是该值都不小于0.9109,仍属于强相关性。OBB高度的相关系数随关键筛孔的降低,其变化趋势不显著,不同关键筛孔下平均相关系数为0.8999,属于强相关性。综上表明,基于红外深度评价方法能够科学、准确地提取骨料三维尺度特征信息,即使细骨料也能提取较好的三维模型。

    路用骨料的针片状颗粒在施工和使用过程中容易破碎,一直以来被认为是不良材料[17]。为进一步验证该评价方法对针片状颗粒的识别效果,选取了包含针片状颗粒的骨料共计100颗,其关键筛孔为16 mm、13.2 mm、9.5 mm,部分骨料图像测试效果如图 10所示。分别基于传统二维图像长度与宽度方向,以及骨料三维模型OBB最大长度方向(或宽度)与最小厚度方向识别针片状颗粒,识别效果如图 10表 1所示。

    图  10  不同测试方法提取效果图
    Figure  10.  Extraction effect of different test methods
    表  1  针片状颗粒识别正确率
    Table  1.  Recognition accuracy of flat-elongated particles
    Critical sieve pore /mm 16 13.2 9.6
    Accuracy of two-dimensional image recognition /% 91 83 93
    Accuracy of three-dimensional model recognition /% 98 100 100
    下载: 导出CSV 
    | 显示表格

    相对于传统二维图像轮廓,基于骨料三维模型OBB识别骨料的针片状准确率相对更高,平均准确率提升幅度12%。说明相对于二维单一视角下的骨料轮廓、投影面积与骨料扁平姿态密切相关,骨料越接近扁平状,针片状二维轮廓的代表性越差,而三维模型不存在该问题,表明采用三维模型评价其针片状含量将会更加合理,准确。

    本文为实现复杂环境下路用骨料三维目标的快速识别,提出一种基于红外深度特征的三维识别方法,通过该方法计算的三维模型粒度能够表征骨料粒径的信息特征,可以为后期混合料级配的快速识别与划分提供研究基础;同时,骨料三维模型OBB长度、宽度、高度与其实际尺寸也具有较高的相关性,但是骨料三维高度信息的离散性与识别效果相对较差,还需进一步优化,后期将结合深度学习算法优化计算系统与目标位姿关系的负面影响,实现点云特征匹配参数的选择,以便在匹配准确度和识别效率上得到提升。此外,相对于传统二维图像轮廓,基于OBB尺度特征识别针片状颗粒的准确率得到提高,通过测试数据进行对比分析,结果表明该方法在目标检出率、误判率上均优于传统二维识别方法,准确率提升幅度达12%。由此可见,该评价方法在三维目标识别领域具有一定的应用前景,尤其是针对具有一定红外特征的待测目标,具有更高的借鉴价值。

  • 图  1   本文模型整体结构示意图

    Figure  1.   The overall structure diagram of the model in this paper

    图  2   残差块网络结构

    Figure  2.   Residual block network structure

    图  3   CBAM模块结构

    Figure  3.   CBAM module structure

    图  4   通道注意力模块

    Figure  4.   Channel attention module

    图  5   空间注意力模块

    Figure  5.   Spatial attention module

    图  6   多粒度特征重建网络模型

    Figure  6.   Multi-granularity feature reconstruction network models

    图  7   多头注意力机制模块

    Figure  7.   Multi-head attention mechanism module

    图  8   UIEB数据集的原始图像(左)和参考图像(右)

    Figure  8.   Original image (left) and reference image (right) of the UIEB dataset

    图  9   EUVP数据集的原始图像(左)和参考图像(右)

    Figure  9.   Original image (left) and reference image (right) of the EUVP dataset

    图  10   水下图像增强效果

    Figure  10.   Underwater image enhancement effect

    图  11   不同方法处理的水下图像视觉对比

    Figure  11.   Visual comparison of underwater images processed by different methods

    表  1   不同模型的增强结果对比

    Table  1   Comparison of enhancement results of different models

    Methods PSNR SSIM UIQM
    UIEB EUVP UIEB EUVP UIEB EUVP
    UDCP 13.97 16.79 0.565 0.596 2.085 2.235
    IBLA 17.03 21.62 0.608 0.720 1.732 1.828
    ULAP 15.87 18.91 0.537 0.729 1.773 2.316
    CLAHE 17.51 19.77 0.692 0.741 2.237 2.692
    UWCNN 15.52 20.56 0.717 0.750 2.674 2.859
    Water-Net 18.59 22.72 0.749 0.818 2.686 2.811
    Ucolor 21.88 23.21 0.865 0.886 2.859 2.887
    LANet 23.96 25.53 0.835 0.873 2.835 2.932
    Ours 23.31 26.37 0.882 0.916 2.901 3.013
    下载: 导出CSV

    表  2   水下图像增强模型中各模块的消融实验

    Table  2   Ablation experiments of each module in the underwater image enhancement model

    Methods PSNR SSIM UIQM
    UIEB EUVP UIEB EUVP UIEB EUVP
    Res+EDL 17.56 21.08 0.701 0.726 2.574 2.757
    ResAtt+EDL 21.93 24.94 0.821 0.860 2.833 2.892
    ResAtt+EDL+LR 22.70 25.43 0.868 0.892 2.881 2.975
    ResAtt+EDL+GR 22.58 25.68 0.875 0.903 2.876 2.969
    ResAtt+EDL+GR+LR 23.31 26.37 0.882 0.916 2.901 3.013
    下载: 导出CSV
  • [1]

    LIU K, PENG L, TANG S. Underwater object detection using TC-YOLO with attention mechanisms[J]. Sensors, 2023, 23(5): 2567. DOI: 10.3390/s23052567

    [2]

    LIU Z, ZHUANG Y, JIA P, et al. A novel underwater image enhancement algorithm and an improved underwater biological detection pipeline[J]. Journal of Marine Science and Engineering, 2022, 10(9): 1204. DOI: 10.3390/jmse10091204

    [3] 邓晶. 水下图像增强方法综述[J]. 电视技术, 2022, 46(12): 4-7, 13.

    DENG Jing. A review of underwater image enhancement methods[J]. Television Technology, 2022, 46(12): 4-7, 13.

    [4]

    Alenezi F, Armghan A, Santosh K. Underwater image dehazing using global color features[J]. Engineering Applications of Artificial Intelligence, 2022, 116: 105489. DOI: 10.1016/j.engappai.2022.105489

    [5]

    ZHENG M, LUO W. Underwater image enhancement using improved CNN based defogging[J]. Electronics, 2022, 11(1): 150. DOI: 10.3390/electronics11010150

    [6]

    ZHOU J, ZHANG D, ZHANG W. Underwater image enhancement method via multi-feature prior fusion[J]. Applied Intelligence, 2022, 52(14): 16435-16457. DOI: 10.1007/s10489-022-03275-z

    [7]

    Ghani A S A, Isa N A M. Underwater image quality enhancement through integrated color model with Rayleigh distribution[J]. Applied Soft Computing, 2015, 27: 219-230. DOI: 10.1016/j.asoc.2014.11.020

    [8]

    Ancuti C, Ancuti C O, Haber T, et al. Enhancing underwater images and videos by fusion[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2012: 81-88.

    [9] 王亚茹, 刘雨青, 黄璐瑶, 等. 基于卷积神经网络的水下图像增强技术研究[J]. 制造业自动化, 2023, 45(2): 65-68, 92.

    WANG Yaru, LIU Yuqing, HUANG Luyao, et al. Research on underwater image enhancement technology based on convolutional neural network[J]. Manufacturing Automation, 2023, 45(2): 65-68, 92.

    [10]

    LI C, Anwar S, Porikli F. Underwater scene prior inspired deep underwater image and video enhancement[J]. Pattern Recognition, 2020, 98: 107038. DOI: 10.1016/j.patcog.2019.107038

    [11]

    LI C, Anwar S, Hou J, et al. Underwater image enhancement via medium transmission-guided multi-color space embedding[J]. IEEE Transactions on Image Processing, 2021, 30: 4985-5000. DOI: 10.1109/TIP.2021.3076367

    [12]

    GONG T Y, ZHANG M M, ZHOU Y, et al. Underwater image enhancement based on color feature fusion[J]. Electronics, 2023, 12(24): 4999. DOI: 10.3390/electronics12244999

    [13]

    LIU R, JIANG Z, YANG S, et al. Twin adversarial contrastive learning for underwater image enhancement and beyond[J]. IEEE Transactions on Image Processing, 2022, 31: 4922-4936. DOI: 10.1109/TIP.2022.3190209

    [14]

    QI Q, LI K, ZHENG H, et al. SGUIE-Net: Semantic attention guided underwater image enhancement with multi-scale perception[J]. IEEE Transactions on Image Processing, 2022, 31: 6816-6830. DOI: 10.1109/TIP.2022.3216208

    [15]

    SUN S, WANG H, ZHANG H, et al. Underwater image enhancement with reinforcement learning[J]. IEEE Journal of Oceanic Engineering, 2024, 49(1): 249-261. DOI: 10.1109/JOE.2022.3152519

    [16]

    PENG L, ZHU C, BIAN L. U-Shape transformer for underwater image enhancement[J]. IEEE Transactions on Image Processing, 2023, 32: 3066-3079. DOI: 10.1109/TIP.2023.3276332

    [17]

    Avcibas I, Sankur B, Sayood K. Statistical evaluation of image quality measures[J]. J. Electron. Imag., 2002, 11(2): 206-223. DOI: 10.1117/1.1455011

    [18]

    WANG Z, Bovik A C, Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE Trans. Image Process. , 2004, 13(4): 600-612. DOI: 10.1109/TIP.2003.819861

    [19]

    Panetta K, GAO C, Agaian S. Human-visual-system-inspired underwater image quality measures[J]. IEEE Journal of Oceanic Engineering, 2016, 41(3): 541-551. DOI: 10.1109/JOE.2015.2469915

    [20]

    Islam M J, XIA Y, Sattar J. Fast underwater image enhancement for improved visual perception[J]. IEEE Robotics and Automation Letters, 2020, 5(2): 3227-3234. DOI: 10.1109/LRA.2020.2974710

    [21]

    LI C, GUO C, REN W, et al. An underwater image enhancement benchmark dataset and beyond[J]. IEEE Transactions on Image Processing, 2020, 29: 4376-4389. DOI: 10.1109/TIP.2019.2955241

    [22]

    Drews P L, Nascimento E R, Botelho S S, et al. Underwater depth estimation and image restoration based on single images[J]. IEEE Comput. Graph. Appl. , 2016, 36(2): 24-35. DOI: 10.1109/MCG.2016.26

    [23]

    PENG Y T, Cosman P C. Underwater image restoration based on image blurriness and light absorption[J]. IEEE Transactions on Image Processing, 2017, 26(4): 1579-1594. DOI: 10.1109/TIP.2017.2663846

    [24]

    SONG W, WANG Y, HUANG D M, et al. Arapid scene depth estimation model based on underwater light attenuation prior for underwater image restoration[C]//Proceedings of 2018 Advances in Multimedia Information Processing, 2018: 678-688.

    [25]

    Zuiderveld K J. Contrast Limited Adaptive Histogram Equalization[C]//Proceedings of the Graphics Gems, 1994: 474-485.

    [26]

    LIU S, FAN H, LIN S, et al. Adaptive learning attention network for underwater image enhancemen [J]. IEEE Rob Autom Lett., 2022, 7(2): 5326-5333. DOI: 10.1109/LRA.2022.3156176

  • 期刊类型引用(25)

    1. 李阳,丘建培,宋坤. 基于音视频多模态数据感知的智能巡检系统设计与应用. 现代信息科技. 2025(03): 189-193 . 百度学术
    2. 周亚男. 光伏电站运维现状分析. 太阳能. 2024(01): 12-19 . 百度学术
    3. 兰金江,曾学仁,方亮,田楠,王志强,刘继江. 基于无人机巡检的光伏缺陷检测与定位. 科技创新与应用. 2024(18): 14-19 . 百度学术
    4. 任鹏,张哲,于洋. 基于边缘计算的县域分布式光伏智能巡检方法. 吉林电力. 2024(03): 28-31 . 百度学术
    5. 温建国. 智能无人机红外巡检技术在光伏电站故障诊断中的应用. 中国战略新兴产业. 2024(26): 23-25 . 百度学术
    6. 侯伟,陈雅,宋承继,刘强锋. 基于改进YOLOv5算法的无人机巡检图像智能识别方法. 微型电脑应用. 2024(09): 26-30+36 . 百度学术
    7. 杨梅,马建新,陈炳森,赵泽政. 光伏电站无人机自动巡检及故障诊断技术应用. 计量与测试技术. 2024(09): 89-92 . 百度学术
    8. 吴张宇,吴池莉,于慧铭,政幸男,张啸宇. 面向大规模光伏电站的无人机巡检路径规划策略. 综合智慧能源. 2024(11): 46-53 . 百度学术
    9. 李峰,林维修,乐锋,许育燕,张斌. 一种基于无人机的光伏异常检测方法研究. 人工智能科学与工程. 2024(04): 86-92 . 百度学术
    10. 陈大涛,高伟新,宇文磊县,赵良成,高永鑫,吴良,回峰. 基于无人机巡查的光伏电站检查系统设计. 集成电路应用. 2024(12): 72-75 . 百度学术
    11. 曹瑞安. 基于AI机器视觉技术的新能源无人值守场站自动巡检方法. 电力大数据. 2024(11): 48-56 . 百度学术
    12. 吕德利,王旋. 一种基于GPS定位技术的无人机智能光伏巡检系统. 科技创新与应用. 2023(06): 37-40 . 百度学术
    13. 李德维. 光伏电站组件诊断中无人机智能巡检的应用. 光源与照明. 2023(01): 102-105 . 百度学术
    14. 潘巧波,李昂,何梓瑜,唐梓彭. 数字化电厂智慧平台在光伏电站的应用. 黑龙江电力. 2023(02): 137-142 . 百度学术
    15. 张永伟,李贵,马玉权,汪海波. 基于高精度快速故障识别的智能光伏视频巡检系统研究. 电力信息与通信技术. 2023(06): 73-78 . 百度学术
    16. 范群. 智能集控平台在光伏发电站生产中的应用策略. 光源与照明. 2023(06): 142-144 . 百度学术
    17. 白玉龙,孙茹洁,哈永华. 光伏电站自主巡检中的无人机视觉定位算法研究. 电子元器件与信息技术. 2023(05): 72-75 . 百度学术
    18. 邓拥正,杨健. 浅谈无人机在光伏电站巡检中的应用. 红水河. 2023(04): 69-72 . 百度学术
    19. 王佳文,朱永灿,王帅,李科锋. 航拍光伏组件图像的畸变校正方法研究. 湖南电力. 2023(04): 74-79 . 百度学术
    20. 周登科,郭星辰,史凯特,汤鹏,郑开元,马鹏阁. 风电场无人机巡检红外叶片图像拼接算法. 红外技术. 2023(12): 1161-1168 . 本站查看
    21. 李智强. 基于无人机航拍摄影的变电站运行环境智能巡检方法. 电气技术与经济. 2023(10): 146-148 . 百度学术
    22. 艾上美,周剑峰,张必朝,张涛,王红斌. 基于改进SSD算法的光伏组件缺陷检测研究. 智慧电力. 2023(12): 53-58 . 百度学术
    23. 周登科,郭星辰,史凯特,汤鹏,郑开元,马鹏阁. 风电场无人机巡检红外叶片图像拼接算法. 红外技术. 2023(11): 1161-1168 . 本站查看
    24. 孙霞,张洁,赵厚群,张坤乾,缪玉婷. Petri网在架空电缆无人机巡检方面的研究. 绥化学院学报. 2022(12): 139-142 . 百度学术
    25. 李垚,魏文震,杨增健,赵鑫,吕健. 基于大数据的变电站在线智能巡视系统的研究. 电力大数据. 2022(11): 47-55 . 百度学术

    其他类型引用(8)

图(11)  /  表(2)
计量
  • 文章访问数:  52
  • HTML全文浏览量:  3
  • PDF下载量:  18
  • 被引次数: 33
出版历程
  • 收稿日期:  2023-06-05
  • 修回日期:  2023-08-29
  • 刊出日期:  2024-09-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日