基于细节显著性估计的低照度图像增强方法

杨锋, 赵维骏, 顾燕, 董隽媛, 吕扬, 李海生, 郭一亮, 朱波

杨锋, 赵维骏, 顾燕, 董隽媛, 吕扬, 李海生, 郭一亮, 朱波. 基于细节显著性估计的低照度图像增强方法[J]. 红外技术, 2024, 46(10): 1145-1153.
引用本文: 杨锋, 赵维骏, 顾燕, 董隽媛, 吕扬, 李海生, 郭一亮, 朱波. 基于细节显著性估计的低照度图像增强方法[J]. 红外技术, 2024, 46(10): 1145-1153.
YANG Feng, ZHAO Weijun, GU Yan, DONG Junyuan, LYU Yang, LI Haisheng, GUO Yiliang, ZHU Bo. Low-light Image Enhancement via Detail Saliency Estimation[J]. Infrared Technology , 2024, 46(10): 1145-1153.
Citation: YANG Feng, ZHAO Weijun, GU Yan, DONG Junyuan, LYU Yang, LI Haisheng, GUO Yiliang, ZHU Bo. Low-light Image Enhancement via Detail Saliency Estimation[J]. Infrared Technology , 2024, 46(10): 1145-1153.

基于细节显著性估计的低照度图像增强方法

基金项目: 

国家自然科学基金 61901157

详细信息
    作者简介:

    杨锋(1988-),江苏南通人,硕士,工程师,研究方向:光电探测系统与图像处理。E-mail:yangfeng_nnvt@163.com

  • 中图分类号: TP391

Low-light Image Enhancement via Detail Saliency Estimation

  • 摘要:

    在基于Retinex分解的低照度图像增强算法中,通过同时估计反射层和亮度层进行反射层恢复是一种流行且有效的方法,但算法结构较为复杂,实现难度大。这是因为恢复反射率是一个约束优化问题,不能用简单的优化技术来解决。本文提出了一种细节显著性估计方法,可以利用简单的梯度下降优化技术从图像中恢复出反射层。该方法是基于我们所提出假设——暗区域近似(dark region approximation, DRA):由于低照度图像暗区域中的光照很弱,因此将其忽略不计,即将输入图像中暗区域的灰度分布直接近似为反射层。首先利用高斯场准则构建目标函数,通过基于DRA的Retinex模型估计细节显著层;然后用拟牛顿法求解该无约束优化问题;最后,从细节显著层中恢复出反射层作为最终增强结果。实验结果表明,与现有同类方法相比,我们的方法在增强效果和计算效率方面都具有优势。

    Abstract:

    Reflectance recovery via the simultaneous estimation of reflectance and illumination is a prevalent and effective solution for image enhancement based on retinex decomposition, but its use results in a complex algorithm structure because reflectance recovery is formulated as a constrained optimization problem that cannot be solved via simple optimization techniques. In this study, a detailed saliency estimation method is proposed to recover reflectance from grayscale images via optimization employing gradient descent algorithms. This method is built on our hypothesis of dark region approximation (DRA). Because the illumination in dark regions of a low-light image is weak to the point of being negligible, the intensities of dark regions in the captured images are approximated as reflectance. The Gaussian field criterion is applied to establish a differentiable optimization function via DRA. This unconstrained optimization problem is then solved using the quasi-Newton method to estimate the detail saliency layer via the DRA-based retinex model. Finally, the reflectance is recovered from the detailed saliency layer. The results for a variety of images demonstrate the superiority of our method over several state-of-the-art methods in terms of enhancement efficiency and quality.

  • 电网将电力输送到各个节点。电网常常架设在野外环境中,环境较为恶劣,为保证电网正常运行,电网每隔一段距离都会安装一个电力稳定器,尤其在中低压电网中,该设备更是常见[1]。电力稳定器的作用,顾名思义,是稳定电力电压,以减少电压波动,提高电力供应稳定性。电网电力稳定器在长期运行下,再加上各种因素的干扰,难以避免地会出现各种故障问题,尤其在夏季高温环境下,其中某些零部件很容易发生温度过高的问题,导致零部件烧毁,影响了稳定器运行可靠性[2]。面对这种情况,对高温环境下的中低压电网电力稳定器运行可靠性进行定期监测具有重要的现实意义。

    电力设备的故障识别的相关研究有很多。如文献[3]中提出了一种基于振动信号多特征值的电力变压器故障检测研究。该方法先搜集大量变压器正常与典型故障下的振动信号,并提取其特征,然后以此为基础,提出了两段式故障诊断流程,利用截断正态分布拟合方法与合成少数类过采样技术对故障数据进行扩充,进一步提高了分类精度,以此实现故障检测。这种方法由于振动信号在采集过程中容易受到噪声影响,使得识别准确性下降。再如文献[4]中提出了一种电力设备机械振动-超声波融合检测传感器研制及应用。该文设计融合信号多功能调理电路,研制振动加速度-超声波融合传感器,实现机械振动和局部放电信号在空间和时间上的同步检测及数据处理,以此实现故障检测与诊断。这种方法由于超声信号不易获取,且会受到监测距离的限制,故其应用效果不佳。文献[5]中提出了一种面向电力设备红外图像的温度值识别算法。该方法采集目标设备的红外图像,然后进行图像预处理并提取图像特征,最后利用识别方法发现故障目标。该方法在高温环境下采集的红外图像中故障部位的温度显示不明显,也就是目标难以定位,故其应用效果不佳。结合以往研究经验,提出一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。通过该研究以期提高电力稳定器高温运行可靠性识别准确性。

    电力稳定器是电网系统当中的重要组成部分之一,主要作用是稳定电线当中的电压,提高电力运输质量。一旦电网电力稳定器出现问题,将直接影响电网运行可靠性。针对这一点,研究一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。

    研究电力稳定器运行状态的前提和基础是获取信息源,也就是关于电力稳定器的图像。关于电力稳定器图像的采集技术有很多,如CCD、激光雷达、红外热像仪、红外成像技术。这些技术采集到的图像虽然各具优势,但是应用在本研究中,并不适合。电力稳定器某部位出现异常时该部位温度会较周围其他部分温度高,一般情况下,直接使用红外热像仪就可以,但是当环境温度较高时,会使得稳定器高温部分显示的红外信息并不明显。针对这种情况,利用红外成像技术采集电力稳定器图像。红外成像技术框架如图 1所示。

    图  1  电力稳定器图像采集示意图
    Figure  1.  Schematic diagram of the image acquisition of the power stabilizer

    该技术原理如下:首先利用光源系统为其提供照明,然后利用分光计将光分散处理,照射到目标电力稳定器上,这时光会被反射回来,经过聚焦透镜后,利用红外相机采集反射光,形成中低压电网电力稳定器红外图像[6]

    经过红外成像技术采集电力稳定器图像之后,还需要进行预处理,增强图像中所隐含的信息辨识度[7]。预处理包括3方面,即红外稳定器图像灰度化、图像滤波以及图像对比度增强。

    1)红外稳定器图像灰度化

    图像灰度化是指将图像像素转换到0~255区间,让红绿蓝三色彩分量降低[8]。处理公式如下:

    $$ A = \frac{{{w_1}{A_1} + {w_2}{A_2} + {w_3}{A_3}}}{3} $$ (1)

    式中:A代表图像灰度化结果;A1A2A3代表原图像的色彩三分量;w1w2w3代表原图像色彩三分量对应的权重,分别取值为0.299、0.587、0.144。

    2)红外稳定器图像滤波

    图像滤波,即平滑图像,去除图像中的噪声点[9]。红外稳定器图像滤波过程如下:首先输入待滤波的图像,其次选取滤波窗口,记为S,对窗口对应的红外稳定器图像像素灰度值进行从小到大排序,然后选取其中的中间值,即:

    $$ {B_{i,j}} = \text{Med}\left[ {C\left( n \right)} \right] $$ (2)

    式中:Bi, j代表红外稳定器图像像素灰度序列的中间值;C代表灰度值序列;n代表滤波窗口S内的像素点数;Med代表中间值符号。

    然后按照下述公式计算与滤波窗口S内灰度最小值和最大值之间的差值p1p2q1q2

    $$ \left\{ \begin{gathered} {p_1} = {B_{i,j}} - \min {b_{i,j}} \hfill \\ {p_2} = {B_{i,j}} - \max {b_{i,j}} \hfill \\ \end{gathered} \right. $$ (3)
    $$ \left\{ \begin{gathered} {q_1} = {C_{i,j}} - \min {b_{i,j}} \hfill \\ {q_2} = {C_{i,j}} - \max {b_{i,j}} \hfill \\ \end{gathered} \right. $$ (4)

    式中:$ \min {b_{i,j}} $、$ \max {b_{i,j}} $分别代表滤波窗口S内灰度最小值和最大值;Ci, j代表滤波窗口S内随机一点(i, j)处的灰度值。

    然后判断是否p1大于0,且p2小于0?若是,进行下一步,否则扩大滤波尺寸,记为S′,并回到开始滤波步骤,按照上述流程,重新进行滤波处理。最后判断是否q1大于0,且q2小于0?若是,将Ci, j作为输出值,否则把Bi, j作为输出值[10]

    3)图像对比度增强

    图像对比度增强的目的是突出红外稳定器图像中的关键信息,弱化红外稳定器图像中的背景信息[11]。在这里采用分段线性灰度变换法,即每段根据需要可以采用不同的线性变换来增强图像对比度。在这里分为3段,即背景段、过渡段、目标段。原理如下:

    $$ {\hat D_{i,j}} = \left\{ \begin{gathered} \frac{{\left( {{E_3} - {e_2}} \right)\left( {{D_{i,j}} - {e_1}} \right)}}{{{e_3} - {e_1}}} + {e_2},\,\,{e_1} \leqslant {D_{i,j}} \lt {e_3} \hfill \\ \frac{{\left( {{E_4} - {E_3}} \right)\left( {{D_{i,j}} - {e_3}} \right)}}{{{e_4} - {e_3}}} + {E_3},\,\,{e_3} \leqslant {D_{i,j}} \lt {e_4} \hfill \\ \frac{{\left( {{E_2} - {E_4}} \right)\left( {{D_{i,j}} - {e_4}} \right)}}{{{E_1} - {e_4}}} + {E_4},\,\,{e_4} \leqslant {D_{i,j}} \lt {E_1} \hfill \\ \end{gathered} \right. $$ (5)

    式中:$ {\hat D_{i,j}} $代表增强后的红外稳定器图像;Di, j代表原始红外稳定器图像;(e1, E1)代表Di, j的灰度范围;(e2, E2)代表$ {\hat D_{i,j}} $的灰度范围;(e3, E3)代表背景段与过渡段之间分段点的坐标;(e4, E4)代表过渡段与目标段之间分段点的坐标。依据获得的坐标进行分段,然后确定每个段的灰度范围,对每个段进行线性变换,将各段的像素进行重新映射,最后合并各段的处理结果,得到其整体增强效果。

    针对预处理好的红外稳定器图像,进行图像分割,划分目标区域和背景区域,方便后续图像特征提取[12]。红外稳定器图像分割流程如下:

    步骤1:输入预处理好的红外稳定器图像;

    步骤2:从图像中找出像素最大的点,将其作为种子点,记为O

    步骤3:按照O邻域像素灰度值与种子点O灰度值的差值小于某一阈值的原则进行区域生长;

    步骤4:选出区域生长面积最大的区域,记为M

    步骤5:确定M的4个方向的极值位置信息,记为Z1Z2Z3Z4

    步骤6:将Z1Z2Z3Z4连接,确定包含目标的区域,记为U

    步骤7:U区域内仍存在小部分背景干扰信息,因此针对U,需要进一步进行精细分割;

    步骤8:依据目标检测器G和背景检测器$ \hat G $计算U内目标、背景均值。计算公式如下:

    $$ \bar R = \frac{{\sum\limits_{i,j \in U}^m {{G_{i.j}}} }}{m} $$ (6)
    $$ \bar R' = \frac{{\sum\limits_{i,j \in U}^n {{{\hat G}_{i.j}}} }}{n} $$ (7)

    式中:$ \bar R $代表目标均值;$ \bar R' $代表背景均值;Gi, j代表目标检测器G检测出来的像素值;$ {\hat G_{i.j}} $代表背景检测器$ \hat G $检测出来的像素值;m代表目标检测器G检测出来的像素数量;n代表背景检测器$ \hat G $检测出来的像素数量。

    步骤9:依据下述规则实现对红外稳定器图像像素的分类。

    $$ \left\{ \begin{gathered} {u_{i,j}} \in Q,\left| {\bar R - {u_{i,j}}} \right| \lt \left| {\bar R' - {u_{i,j}}} \right| \hfill \\ {u_{i,j}} \in \hat Q,\left| {\bar R - {u_{i,j}}} \right| \geqslant \left| {\bar R' - {u_{i,j}}} \right| \hfill \\ \end{gathered} \right. $$ (8)

    式中:ui, j代表U区域内(i, j)处的像素值;Q代表目标区域;$ \hat Q $代表背景区域。

    经过上述过程,完成红外稳定器目标图像分割。

    基于分割出来的红外稳定器目标图像,提取两类特征作为最后图像识别模型的输入,在这里通过直方图计算-阶统计特征[13]。首先计算红外稳定器目标图像的直方图。基于直方图提取其特征,具体如下:

    灰度最大值:

    $$ {\phi _1} = \max \sum\limits_{k = 1}^H {{N_k}{V_k}} $$ (9)

    峰度系数:

    $$ {\phi _2} = \frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^4}{V_k}} }}{{{\alpha ^4}{\beta _x}{\beta _y}}} $$ (10)

    熵:

    $$ {\phi _3} = - \frac{{\sum\limits_{k = 1}^H {{N_k}{{\log }_2}\left( {{N_k}} \right)} }}{{{\beta _x}{\beta _y}}} $$ (11)

    偏度:

    $$ {\phi _4} = \frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^3}{V_k}} }}{{{\alpha ^3}{\beta _x}{\beta _y}}} - 3 $$ (12)

    标准差:

    $$ {\phi _5} = \sqrt {\frac{{\sum\limits_{k = 1}^H {{{\left( {{N_k} - \bar \phi } \right)}^2}{V_k}} }}{{{\beta _x}{\beta _y}}}} $$ (13)

    式中:Nk代表图像中灰度级别为k的像素数量;Vk代表灰度级别为k的柱状图;H代表图像的灰度等级;α代表图像灰度方差;$ \bar \phi $代表图像灰度平均值。

    基于上述5个公式,完成红外稳定器图像5个特征参数的提取。

    基于上述提取的红外稳定器图像5个特征参数,本节先是确定稳定器热状态,然后针对状态确定具体的可靠性等[14]

    1)稳定器热状态确定

    以5个特征参数为基础,构建分类器,其形式如下:

    $$ ψ=v_{1}\mathit{λ}_{1}+v_{2}\mathit{λ}_{2}+v_{3}\mathit{λ}_{3}+v_{4}\mathit{λ}_{4}+v_{5}\mathit{λ}_{5}-δ$$ (14)

    式中:ψ代表分类器判别数值;δ代表常数;v1v2v3v4v5代表红外稳定器图像5个特征的判别函数系数,其取值分别为0.214,0.154,0.352,0.157,0.221;λ1λ2λ3λ4λ5分别代表灰度最大值、峰度系数、熵、偏度以及标准差的特征归一化指数,计算公式如下:

    $$ {\lambda _i} = \frac{{{\phi _i} - \min \phi }}{{\max \phi - \min \phi }} \text{,} i = 1,2,3,4,5 $$ (15)

    式中:φi代表第i类特征的原始参数;minφ、maxφ代表特征的最小值和最大值。

    输入正常和异常训练样本到分类器,确定两种状态(正常和异常)分类的中心,记为ψ1ψ2。由此计算正常和异常类型的间隔点,计算公式如下:

    $$ \mu = \frac{{{\psi _1} + {\psi _2}}}{2} $$ (16)

    式中:μ代表稳定器正常和异常类型的间隔点。

    输入测试样本到分类器当中,得出分类器判别数值ψ。当ψμ,认为稳定器处在正常状态;当ψμ,认为稳定器处在异常状态[15]

    2)可靠性等级确定

    通过上述研究确定了稳定器的目标区域所处的状态,但是异常状态的可靠性等级还需要进一步确定,这里需要通过相对温差判断法确定可靠性等级[16]。首先确定红外稳定器图像比色条的最高温度值和最低温度值,记为TmaxTmin,以及TmaxTmin在图中对应的灰度值,记为ηmaxηmin。将TmaxTminηmaxηmin代入到下述方程,求得参数σϑ

    $$ \left\{ \begin{gathered} {T_{\max }} = \sigma {\eta _{\max }} + \vartheta \hfill \\ {T_{\min }} = \sigma {\eta _{\min }} + \vartheta \hfill \\ \end{gathered} \right. $$ (17)

    由此得到图像中目标的温度值计算公式,即:

    $$ T=0.214η+1.154$$ (18)

    然后根据T,计算相对温差ΔT

    $$ \Delta T = \frac{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} - \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{T} }}{{\overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} - \tilde T}} \cdot 100\% $$ (19)

    式中:$ \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\frown}$}}{T} $代表红外稳定器图像中发热点的温度;$ \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\smile}$}}{T} $代表红外稳定器图像中正常相对应点的温度;$ \tilde T $代表环境参照体的温度。

    根据ΔT,确定稳定器的异常状态可靠性等级,具体如下:

    一级:可靠等级较低,ΔT≥30%;

    二级:可靠等级低,ΔT≥80%;

    三级:可靠等级非常低,ΔT≥90%;

    基于上述两个步骤的研究,实现中低压电网电力稳定器高温运行可靠性图像识别。

    实验测试所需要的训练样本来自电力系统数据库,根据稳定器组成结构,将其主要分为7个训练样本,结果如图 2所示。

    图  2  训练样本
    Figure  2.  The training sample

    测试样本则来自某一区域某一段中低压电网上5个稳定器的现场采集图像,共采集图像35幅,其中部分如图 3所示。

    图  3  部分红外稳定器图像
    Figure  3.  Part of the infrared stabilizer image

    针对上述红外稳定器图像进行三步预处理,提高图像质量。

    针对红外稳定器图像样本进行分割,确定目标区域,并提取直方图-阶统计特征,其中部分结果如表 1所示。

    表  1  红外稳定器图像特征
    Table  1.  Infrared stabilizer image features
    Sample Grayscale maximum Kurtosis coefficient Entropy Skewness Standard deviation
    1 1.28 8.56 0.21 2.58 10.55
    2 2.45 8.45 0.23 3.52 10.82
    3 2.12 7.45 0.47 1.48 14.55
    4 2.89 9.54 0.85 1.98 10.23
    5 3.54 8.12 0.42 2.89 8.55
    6 4.22 7.26 0.12 2.41 13.62
    7 3.46 6.54 1.48 2.19 14.20
    8 0.65 5.64 1.85 2.58 12.32
    9 0.89 8.65 0.65 3.55 18.55
    10 4.12 7.12 0.71 2.14 17.32
    11 1.32 7.02 1.25 8.42 14.22
    12 2.65 4.22 1.20 1.48 10.25
    13 3.56 3.65 1.85 2.54 8.42
    14 2.64 5.88 0.55 4.22 9.55
    15 2.65 7.52 0.51 3.55 10.21
    16 2.10 6.55 0.14 2.78 7.45
    17 3.84 4.12 0.16 3.89 6.89
    18 3.52 1.25 0.82 4.78 7.52
    19 2.27 1.20 0.45 8.45 10.95
    20 2.88 5.54 0.47 2.12 11.14
    下载: 导出CSV 
    | 显示表格

    利用训练样本,确定两种状态(正常和异常)分类的中心,然后根据公式(16)计算出的正常和异常类型的间隔点为0.20。由此判断测试样本中存在异常的稳定器,结果如图 4所示。

    图  4  稳定器热状态判断结果
    Figure  4.  Thermal state determination results of the stabilizer

    图 4中可以看出,只有两个稳定器处在异常状态,具体为稳定器2中组成部分3异常,稳定器5中组成部分1异常。

    针对这两个稳定器2中组成部分3图像,稳定器5中组成部分1图像,计算相对温差,确定可靠性等级,结果如图 5所示。

    图  5  可靠性确定结果
    Figure  5.  Reliability determination results

    图 5中可以看出,稳定器2组成部分3相对温差为82.32%,对应可靠等级为2级,可靠性低;稳定器5组成部分1相对温差为91.35%,对应可靠等级为3级,可靠性非常低。由此说明稳定器2和稳定器3都亟待进行维护。

    选取文献[3]方法、文献[4]方法作为对比方法,开展对比实验,进行中低压电网电力稳定器高温运行可靠性图像识别实验,获得对比结果如表 2所示。

    表  2  对比结果
    Table  2.  Comparison of the results
    Serial Number Recognition accuracy of the proposed method/% The recognition accuracy of the method in reference [3]/% The recognition accuracy of the method in reference [4]/%
    1 95.3 84.3 79.6
    2 94.6 84.9 81.2
    3 96.2 82.3 83.4
    4 93.8 81.7 81.6
    5 96.7 82.5 84.9
    6 95.2 83.5 81.8.
    7 95.4 84.9 79.4
    8 95.6 82.3 79.8
    9 94.3 81.5 80.6
    10 92.3 84.5 80.7
    下载: 导出CSV 
    | 显示表格

    表 2所示,采用所提方法进行可靠性图像识别时,其识别准确率达到92.3%以上,而采用对比方法,其识别准确率均低于85.5%,故采用所提方法,应用性能更佳,具有更大的应用价值。

    综上所述,稳定器的正常运行关系到电网运输电力的质量,能够有效稳定电压,避免巨大波动。为实时了解稳定器运行状态,研究一种基于红外成像技术的中低压电网电力稳定器高温运行可靠性图像识别技术。该技术以采集红外成像图像为基础,经过多个步骤处理和分析,确定稳定器状态并判断可靠性等级。最后通过实验测试,证明了所研究技术的有效性。

  • 图  1   利用高斯模糊生成照度层进行反射模型估计的示例

    Figure  1.   Example of reflectance estimation with Gaussian-blur-based illumination layer

    图  2   利用粗糙模糊生成照度层进行反射模型估计的示例

    Figure  2.   Example of reflectance estimation with coarse-blur-based illumination layer

    图  3   低照度图像的示例

    Figure  3.   Examples of low-light images

    图  4   R1D时的反射层恢复

    Figure  4.   Reflectance recovery with R1D

    图  5   第一种误差示例和校正结果

    Figure  5.   Examples of the first mistake and the corrections

    图  6   第二个误差示例和校正结果

    Figure  6.   Examples of the second mistake and the corrections

    图  7   收敛结果示例。在每次迭代中,按从上到下的顺序为:细节显著层和最终的增强图像。迭代误差曲线上的绿点对应于第1、第2、第6、第11和第23步迭代中细节显著性估计的结果

    Figure  7.   Example of convergence results. In each iteration, from top to bottom: detail saliency layer and resultant enhancement image. The green points on the iterative error curve correspond to the results of detail saliency estimation in the step 1, 2, 6, 11 and the final step 23

    图  8   CLAHE、LR3M、SRIE、LIME、L2UWE、SDD和我们的方法在RGB图像上的定性比较

    Figure  8.   Qualitative comparisons of CLAHE, LR3M, SRIE, LIME, L2UWE, SDD and our method on RGB images

    图  9   我们的方法在SWIR和IR图像上的增强结果示例

    Figure  9.   Examples of the enhancement results of our method on SWIR and IR images

    图  10   在数据集的所有图像上对CLAHE、LR3M、SRIE、LIME、L2UWE、SDD和我们的方法进行定量比较。(直方图和误差线分别表示定量评价指标的平均值和标准差)

    Figure  10.   Quantitative comparisons of CLAHE, LR3M, SRIE, LIME, L2UWE, SDD and our method on all images of our dataset. The histograms and error lines indicate the mean and standard deviation of five metrics on our dataset separately

    图  11   数据集上参数N=1~5的方法定量结果

    Figure  11.   Quantitative results of our method with parameters on the dataset

    图  12   数据集上参数r=0.1~1时方法运行的定量结果

    Figure  12.   Quantitative results and runtimes of our method with parameters r=0.1−1 on the dataset

  • [1] 王丹, 陈亮. 基于深度学习的红外夜视图像超分辨率重建[J]. 红外技术, 2019, 41(10): 963-969. http://hwjs.nvir.cn/article/id/hwjs201910012

    WANG Dan, CHEN Liang. Super-resolution reconstruction of infrared images in night environments based on deep-learning[J]. Infrared Technology, 2019, 41(10): 963-969. http://hwjs.nvir.cn/article/id/hwjs201910012

    [2] 李永涛, 何亚磊, 巫风玲. 基于结构相似性算法的微光夜视仪可靠性试验故障诊断[J]. 红外技术, 2021, 43(9): 889-894. http://hwjs.nvir.cn/article/id/f8ccc5e5-c826-4e11-a493-cf9b92ef50de

    LI Yongtao, HE Yalei, WU Fengling. Fault diagnosis of reliability test for low-light-level vision device based on structural similarity algorithm[J]. Infrared Technology, 2021, 43(9): 889-894. http://hwjs.nvir.cn/article/id/f8ccc5e5-c826-4e11-a493-cf9b92ef50de

    [3]

    Touati R, Mignotte M, Dahmane M. Multimodal change detection in remote sensing images using an unsupervised pixel pairwise-based Markov random field model[J]. IEEE Transactions on Image Processing, 2019, 29: 757-767.

    [4]

    WU Xiaojian, Kim Mijin, QU Haoran, et al. Single-defect spectroscopy in the shortwave infrared[J]. Nature Communications, 2019, 10(1): 2672. DOI: 10.1038/s41467-019-10788-8

    [5]

    Saif M, Kwanten W J, Carr J A, et al. Non-invasive monitoring of chronic liver disease via near-infrared and shortwave-infrared imaging of endogenous lipofuscin[J]. Nature Biomedical Engineering, 2020, 10: 2672.

    [6]

    LI Mading, LIU Jiaying, YANG Jiaying, et al. Structure-revealing low-light image enhancement via robust Retinex model [J]. IEEE Transactions on Image Processing, 2018, 27(6): 2828-2841. DOI: 10.1109/TIP.2018.2810539

    [7]

    LI Hui, WU Xiaojun. DenseFuse: a fusion approach to infrared and visible images[J]. IEEE Transactions on Image Processing, 2018, 28(5): 2614-2623.

    [8]

    Arnob Md Masud Parvez, HUNG Nguyen, ZHU Han, et al. Compressed sensing hyperspectral imaging in the 0.9-2.5 μm shortwave infrared wavelength range using a digital micromirror device and InGaAs linear array detector[J]. Applied optics, 2018, 57(18): 5019-5024. DOI: 10.1364/AO.57.005019

    [9]

    Land E H. The Retinex theory of color vision[J]. Scientific American, 1978, 237(6): 108-128.

    [10]

    Jobson D J, Rahman Z, Woodell G A. Properties and performance of a center/surround Retinex [J]. IEEE Trans. Image Process. , 1997, 6(3): 451-462.

    [11]

    Jobson D J, Rahman, Woodell G A, et al. A multiscale Retinex for bridging the gap between color images and the human observation[J]. IEEE Transactions on Image Process. , 1997, 6(7): 965-965.

    [12]

    FU Xueyang, ZENG Delu, YUE Huang, et al. A weighted variational model for simultaneous reflectance and illumination estimation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016: DOI: 10.1109/CVPR.2016.304.

    [13]

    GUO Xiaojie, YU Li, LING Haibin. LIME: low-light image enhancement via illumination map estimation[J]. IEEE Transactions on Image Processing, 2016, 26(2): 982-993.

    [14]

    REN Xutong, YANG Wenhan, CHENG Wenhuang, et al. LR3M: Robust low-light enhancement via low-rank regularized Retinex model[J]. IEEE Transactions on Image Processing, 2020, 29: 5862-5876.

    [15]

    Pizer S M, Johnston R E, Ericksen J P, et al. Contrast-limited adaptive histogram equalization: Speed and effectiveness[C]//Proc. 1st Conf. Visualizat. Biomed. Comput., 1990: 337-345.

    [16]

    Marques T P, Albu A B. L2UWE: a framework for the efficient enhance-ment of low-light underwater images using local contrast and multi-scale fusion[C]//Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), 2020: 538-547.

    [17]

    HAO Shijie, HAN Xu, GUO Yanrong, et al. Low-light image enhance-ment with semi-decoupled decomposition[J]. IEEE Trans. Multimedia, 2020, 22(12): 3025-3038.

    [18]

    Hautiere N, Tarel J P, Aubert D, et al. Blind contrast enhancement assessment by gradient ratioing at visible edges[J]. Image Analysis & Stereology, 2011, 27(2): 87-95.

    [19]

    WANG Shiqi, MA Kede, Yeganeh H, et al. A patch-structure represent-tation method for quality assessment of contrast changed images[J]. IEEE Signal Processing Letters, 2015, 22(12): 2387-2390.

    [20]

    Matkovic K, László Neumann, Neumann A, et al. Global contrast factor-a new approach to image contrast [C]//Computational Aesthetics 2005: Eurographics Workshop on Computational Aesthetics in Graphics, Visualization and Imaging 2005: 25-33.

  • 期刊类型引用(0)

    其他类型引用(2)

图(12)
计量
  • 文章访问数:  93
  • HTML全文浏览量:  20
  • PDF下载量:  49
  • 被引次数: 2
出版历程
  • 收稿日期:  2021-11-23
  • 修回日期:  2022-01-27
  • 刊出日期:  2024-10-19

目录

/

返回文章
返回