红外图像降噪综述

赵梓惠, 周永康, 曾邦泽, 唐兴芬, 傅志宇, 殷永成

赵梓惠, 周永康, 曾邦泽, 唐兴芬, 傅志宇, 殷永成. 红外图像降噪综述[J]. 红外技术, 2025, 47(3): 299-306.
引用本文: 赵梓惠, 周永康, 曾邦泽, 唐兴芬, 傅志宇, 殷永成. 红外图像降噪综述[J]. 红外技术, 2025, 47(3): 299-306.
ZHAO Zihui, ZHOU Yongkang, ZENG Bangze, TANG Xingfen, FU Zhiyu, YIN Yongcheng. A Review of Infrared Image Denoising[J]. Infrared Technology , 2025, 47(3): 299-306.
Citation: ZHAO Zihui, ZHOU Yongkang, ZENG Bangze, TANG Xingfen, FU Zhiyu, YIN Yongcheng. A Review of Infrared Image Denoising[J]. Infrared Technology , 2025, 47(3): 299-306.

红外图像降噪综述

详细信息
    作者简介:

    赵梓惠(1999-),女,云南楚雄人,硕士研究生,研究方向为红外图像处理。E-mail: xijian_9@163.com

    通讯作者:

    曾邦泽(1987-),男,云南玉溪人,博士研究生,高级工程师,研究方向为红外微光图像处理及融合。E-mail: zengbangze@163.com

  • 中图分类号: TN211

A Review of Infrared Image Denoising

  • 摘要:

    红外成像系统组成与成像环境的复杂性,致使红外图像处理时存在多种复杂噪声,严重影响成像质量,因此加强红外图像降噪研究意义重大。本文先描述红外成像系统结构与图像噪声来源,进而从空间域、频率域、空频结合以及深度学习角度,探讨红外图像降噪的传统及改进算法。鉴于深度学习降噪算法在该领域应用广泛且效果出色,文中对其着重探讨。同时,选取经典降噪算法对真实含噪红外图像开展降噪实验以对比性能。实验表明,深度学习降噪算法的效果优于传统算法。

    Abstract:

    The structure of infrared imaging systems and complexity of the imaging environment lead to complex types of noise during infrared image processing, which can seriously affect image quality. This paper first describes the structure of the infrared imaging system and source of image noise, further discussing traditional and improved algorithms for infrared image noise reduction from the perspective of space and frequency domains, air-frequency combination, and deep learning. In this study, we focused on deep learning noise reduction algorithms, in view of their broad application and excellent noise reduction effect. The classical noise reduction algorithm was selected to conduct noise reduction experiments on real noisy infrared images. Experiments show that the deep-learning algorithm surpasses the traditional algorithm in performance.

  • 随着成像技术在图像处理领域的不断发展,图像在不同设备之间的传输与再现成为必然。为了实现图像在不同设备之间的高保真再现,大量的色域映射算法被提出[1-5]。一般说来,理想的色域映射算法转换后的色域映射图像(Gamut-Mapped Images,GMIs)保持较高的对比度、色彩、亮度和结构。为了设计鲁棒的色域映射算法,需要一个通用的色域映射图像质量评价模型对GMIs进行实时的质量评价。然而,经典的主观图像质量评价方法由于耗时、成本高等因素存在诸多局限性。

    客观的图像质量评价(Image Quality Assessment,IQA)方法根据对参考图像的需求情况可分为全参考质量评价(Full Reference IQA,FR-IQA)、半参考质量评价(Reduced Reference IQA,RR-IQA)和无参考质量评价(No Reference IQA,NR-IQA)三类[6-10]。在客观IQA方法中,NR-IQA方法因其在没有参考图像的情况下的适用性而受到关注与重点研究,NR-IQA方法也称为盲质量评价(Blind IQA,BIQA)方法。在NR-IQA方法中广泛使用的原理是自然场景统计(Natural Scene Statistics,NSS),其假设高质量的图像在视觉上是自然的,其像素信息具有一定的统计规律,而引入的失真往往会破坏自然,统计规律会被改变或者破坏;因此可以对图像的系数信息进行统计建模[8]。例如:盲/无参考图像空间质量评估(Blind/Referenceless Image Spatial QUality Evaluator,BRISQUE)[11]算法通过拟合多个类高斯分布提取亮度特征;基于导数统计的质量评估(Derivative Statistics-based Quality Evaluator,DESIQUE)[12]算法通过对图像亮度的导数和Gabor滤波器系数进行高斯统计建模。

    在GMIs中,色域映射引起的失真主要包括结构退化、对比度失真和色调漂移,这与一般IQA研究探索的合成失真不同。因此,传统的IQA方法不适用于评价GMIs的视觉质量[13]。如图 1所示,图 1(a)是一张原始高清图像,对图 1(a)采用三类色域映射算法进行转换,生成3张质量不同的GMIs,即图 1(b)~(d)。图中MOS(Mean Opinion Score)指代图像的主观质量评分,其评分逐渐降低;但是采用传统图像质量评价方法结构相似性质量模型(Structural Similarity Quality Model,SSIM)[14]得到的客观图像质量评分并不是逐渐降低的。因此,传统的图像质量评价方法并不能准确预测色域映射图像质量。为此,本文结合色域映射图像的失真特性提出了基于双阶颜色信息的色域映射图像无参考质量评价算法。该算法将分别从零阶颜色信息与一阶颜色信息中提取图像的细节纹理信息与粗糙轮廓信息。

    图  1  原始高清图像和3张由不同色域映射算法生成的GMIs
    Figure  1.  The original image and three GMIs generated by different gamut mapping algorithms

    相较于传统图像质量评价方法,针对GMIs的IQA方法相对较少。Cai等人[15]提出通过局部与全局统计分析的GMIs盲质量评价(Blind quality assessment of GMIs via Local and Global Statistical analysis,BLGS)算法。该算法中图像首先被转换成LAB2000HL色彩空间,接着提取局部NSS特征用于描述结构和颜色失真,其次提取全局NSS特征用于描述全局自然度失真。文献[13]于2020年提出了基于NSS模型的GMIs无参考图像质量评价(NR quality evaluation for GMIs based on NSS,GMNSS)方法。该方法对颜色三属性(即亮度、彩度、色调)进行NSS,其中亮度频域的NSS特征用来表示图像的结构失真和对比度失真,彩度和色调的空间域NSS特征用来表示颜色失真。Yu等人[16]提出基于颜色与结构失真的GMIs无参考质量评价算法(NR quality evaluation algorithm for GMIs based on Color and Structural Distortions,GMCSD),该算法提取色调异常率描述图像的色调漂移、相对熵衡量对比度失真、NSS特征描述结构失真。以上算法在预测GMIs质量方面做出突出贡献,但其预测结果的精确度还有提升的空间。

    将颜色信息与灰度信息分开考虑是以往方法的惯用思维,从灰度域提取描述图像结构失真的特征,在颜色分量上考虑颜色失真的描述。但是图像的灰度值是由R、G、B三个颜色分量根据公式(1)计算而得,公式(1)如下[17]

    $$ F_{\mathrm{gr}}=0.2989 F_{\mathrm{r}}+0.5870 F_{\mathrm{g}}+0.1140 F_{\mathrm{b}} $$ (1)

    式中:Fgr为图像的灰度系数;FrFgFb分别为图像在RGB颜色空间中的R、G、B三维颜色系数。由此可知,图像的灰度系数是由图像R、G、B三维颜色系数决定的。所以可以假设R、G、B颜色信息的结合不仅能描述图像颜色失真也能描述图像灰度结构失真。

    同时,无论是饱和度还是色调均是基于R、G、B值的线性运算而得的零阶颜色信息,很少有方法考虑到R、G、B值的空间导数信息即一阶颜色信息[18]

    文献[18]中根据图像颜色的一阶导数信息提出了两个颜色分量(即一阶颜色信息):opponent angle(OA)和spherical angle(SA),其定义为公式(2)和公式(3):

    $$ \mathrm{OA}=\tan ^{-1}\left(\mathrm{opp}_{1, x} / \mathrm{opp}_{2, x}\right) $$ (2)
    $$ \mathrm{SA}=\tan ^{-1}\left(\operatorname{sph}_{1, x} / \mathrm{sph}_{2, x}\right) $$ (3)

    式中:OA和SA是角度值,其取值范围为0~360°(或者0~2π)。opp1, x,opp2, x,sph1, x和sph2, x分别是颜色空间导数信息。详细情况请参考文献[18]。

    图 2显示了原始高清图像和GMI在零阶和一阶的颜色分量对比图。图中(a)是原始无失真图像,(g)是有失真的GMI,(b)和(c)分别为原始图像的OA和SA信息分量图,(h)和(i)分别为GMI的OA和SA信息分量图,(d)~(f)分别是原始图像的R、G、B颜色分量图,(j)~(l)分别是GMI的R、G、B颜色分量图。零阶颜色信息即R、G、B颜色分量图中可以清晰显示图像的细节信息,而一阶颜色信息即OA和SA分量图中能够抓取图像一些粗糙的轮廓信息,两方面信息可以作为互补。

    图  2  原始高清图像和色域映射图像在零阶和一阶的颜色分量图。(a) 原始图像;(b)-(f)分别为(a)的OA、SA、R、G、B分量图;(g) 色域映射图像;(h)-(l)分别为(g)的OA、SA、R、G、B分量图
    Figure  2.  Zero-order and first-order color component of original image and GMI. (a) is the original image; (b)-(f) are OA、SA、R、G、B component of (a) respectively; (g) is the GMI; (h)-(l) are OA、SA、R、G、B component of (g) respectively

    结合R、G、B颜色信息不仅能表征图像颜色失真也能表征图像灰度结构失真的设想与颜色的空间导数信息,本文提出了基于双阶颜色信息的GMIs无参考质量评价方法。在R、G、B三个分量上提取零阶颜色信息表征图像的细节信息的损失,在R、G、B的空间导数信息中提取一阶颜色信息表征图像的轮廓信息的变化,算法框架如图 3所示。该算法中打破以往IQA研究中颜色失真与灰度结构失真分开考虑的惯例,从R、G、B三个颜色分量中提取既能描述颜色失真也能描述灰度失真的特征,同时将颜色的一阶导数信息用于图像质量评价中提取描述图像轮廓信息损失的特征作为补充特征增强算法性能。

    图  3  双阶颜色信息质量评价算法框架
    Figure  3.  Flowchart of the double-order color information quality evaluation

    在本文算法中,计算R、G、B三个零阶颜色分量的二维熵和颜色矩信息以进行图像细节信息损失的测量,其次在OA和SA两个一阶颜色分量上提取二维熵和奇异值以进行图像一阶颜色能量损失的测量,以此作为对零阶颜色信息的补充。同时图像颜色信息的损失导致图像颜色偏离、对比度失真等,使得图像看起来十分不自然,存在自然度失真,因此对双阶颜色信息进行NSS提取特征来量化图像的自然度失真。

    一阶颜色信息作为零阶颜色信息的补充,是R、G、B颜色信息的空间导数,提供图像场景的稳健的像素级描述,其受场景偶然因素(例如,视觉几何和照明变化)的影响较小,因此一阶颜色分量(OA和SA)能够提供更稳定的颜色信息。对比图 2(b)(c)图 2(h)(i)可以发现,色域映射过程会造成一阶颜色分量的结构退化。而结构退化主要表现为结构上的信息量和能量的变化。本文中将采用一阶颜色分量的二维熵来测量信息量的变化,使用奇异值来量化结构能量的丢失,采用自然场景统计的方式来量化自然度失真。

    与广泛使用的香农熵相比[19-20],二维熵包含像素与相邻像素之间的邻域信息,构成一个新的特征二元组,不仅可以衡量信息量,还可以反映像素值的分布特征[21-23]。尺寸为m×n的图像的二维熵FE的定义请见公式(4)~(5):

    $$ {P_{i, j}} = \frac{{L\left( {i, j} \right)}}{{m \times n}} $$ (4)
    $$ {F_{\text{E}}} = - \sum\limits_{i = 0}^{360} {{P_{i, j}}\log {P_{i, j}}} $$ (5)

    式中:L(i, j)为特征二元组(i, j)出现的频数;i为像素值;j为该像素邻域内的像素均值;由于一阶颜色分量均为角度值,所以其取值范围为0~360°。

    为了计算结构能量,在一阶颜色分量图上计算奇异值[23]。分量图I首先被分为b×b的图像块。对于一个图像块Bz可以被表示为:

    $$ \boldsymbol{B}_Z=\boldsymbol{U}_Z \boldsymbol{S}_Z \boldsymbol{V}_Z^{\mathrm{T}} \quad Z=1, 2, \cdots, R $$ (6)

    式中:R为一个分量图中总的图像块数;UZVZ均为b×b的方阵,满足UZTUZEVZTVZE,上标T代表矩阵转置,E表示单位矩阵;SZ为对角矩阵,见公式(7):

    $$ {\boldsymbol{S}_Z} = \left[ {\begin{array}{*{20}{l}} {{\xi _1}}&0& \cdots &0&0 \\ 0&{{\xi _2}}& \cdots &0&0 \\ 0&0& \ddots &0&0 \\ 0&0& \cdots &{{\xi _{b - 1}}}&0 \\ 0&0& \cdots &0&{{\xi _b}} \end{array}} \right] $$ (7)

    SZ对角线上的值即为图像块BZ的奇异值,图像块BZ的平均奇异值为YZYZ的定义如公式(8):

    $$ {Y_Z} = \frac{{{\xi _1} + {\xi _2} + \cdots + {\xi _b}}}{b} $$ (8)

    为了减少图像内容对结构能量的影响,采用图像块局部方差对YZ进行归一化,归一化的定义如公式(9):

    $$ {Y'_Z} = \frac{{{Y_Z}}}{{\sigma _Z^2}} $$ (9)

    式中:σZ2为图像块BZ的像素方差。计算所有图像块的归一化奇异值的平均值Qsuv作为衡量一阶颜色分量能量损失的特征。Qsuv的定义如公式(10):

    $$ {Q_{{\text{suv}}}} = \frac{{\sum\limits_{Z = 1}^R {{{Y'}_Z}} }}{R} $$ (10)

    图像颜色导数信息是传达局部图像结构(例如,边缘,纹理)的关键信息,并且与人类视觉系统的中心环绕机制具有对应关系。之前的研究表明,基于图像空间导数的一阶颜色信息可以建立自然场景统计模型[18]。值得注意的是,一阶颜色分量OA和SA提取的局部结构信息与基于亮度提取的局部结构信息不同。例如,由均值减损对比归一化(mean subtracted contrast normalized, MSCN)系数[11]捕获的图像边界信息包含由场景偶然因素造成的边界(例如,由物体相对于光源的形状或位置引起的边缘)和物体实际边界(例如,两个物体之间的边缘或物体与背景之间的过渡),而一阶颜色分量OA和SA更强调后者即物体的实际边界[18]。因此本文计算一阶颜色分量OA和SA的水平与垂直两个方向的空间相邻系数的差值系数,以此来消除像素的空间依赖性。相邻差值系数计算如公式(11)~(13):

    $$ H_l(i, j)=\psi[I(i, j+1), I(i, j)] $$ (11)
    $$ V_I(i, j)=\psi[I(i+1, j), I(i, j)] $$ (12)
    $$ \psi \left( {{\theta _1}, {\theta _2}} \right) = \left\{ {\begin{array}{*{20}{l}} {{\theta _1} - {\theta _2}, \quad - {\text{π }} \leqslant {\theta _1} - {\theta _2} \leqslant {\text{π }}} \\ {{\theta _1} - {\theta _2} + 2{\text{π , }}\quad - 2{\text{π }} \leqslant {\theta _1} - {\theta _2} < - {\text{π }}} \\ {{\theta _1} - {\theta _2} - 2{\text{π , }}\quad {\text{π }} < {\theta _1} - {\theta _2} \leqslant 2{\text{π }}} \end{array}} \right. $$ (13)

    式中:(i, j)为像素坐标,公式(11)是垂直方向的相邻差值系数计算,公式(12)是水平方向的相邻差值系数计算。因为OA和SA分量是可循环的角度值,取值范围为[0, 2π),因此需要注意两个角度值的实际差距应该是在[-π, π]之间,而并非数学意义上的[0, 2π)。对一阶颜色分量的相邻像素差值系数进行统计分析,图 4绘制了图 1中4幅图像的OA与SA分量的相邻差值系数的统计分布图以及标准的高斯分布和柯西分布,从图中可以看出柯西分布存在重尾的情况,系数分布得更加分散,而高斯分布的系数更多地集中在均值附近。高清图像的一阶颜色分量相邻差值系数更符合柯西分布。因此,可以使用柯西分布对一阶颜色分量的相邻差值系数进行统计建模。柯西分布的密度函数见公式(14):

    $$ \varUpsilon \left( {h;\varepsilon , \rho } \right) = \frac{1}{{2{\text{π }}}}\frac{{1 - {\rho ^2}}}{{1 + {\rho ^2} - 2\rho \cos \left( {x - \varepsilon } \right)}}, \quad - {\text{π }} \leqslant x < {\text{π }} $$ (14)
    图  4  图 1中4幅图像一阶颜色分量的相邻差值经验分布图系数分布
    Figure  4.  Empirical distribution of adjacent difference of first-order color components of the four images in Figure 1

    式中:h为函数变量;ε为位置参数;ρ为尺度参数,参数(ε, ρ)可以作为评价颜色信息的有效质量感知特征。同时由图 4可知每个差值系数分布的峰值呈现很大的区别,因此峰值也可以作为质量感知特征。

    由于人类视觉系统的多层次特性,对图像进行下采样之后再次提取一阶颜色分量的自然场景统计特征。

    综上所述,分别在一阶颜色分量OA与SA中提取了两类特征T1T2T1为量化一阶颜色分量全局结构能量损失的二维熵与奇异值;T2为表征一阶颜色分量自然度失真的NSS特征。

    分析色域映射算法的映射原理,其不同色域之间的颜色坐标转换主要采用两种方式:其一,通过对色域空间的整体压缩来实现大色域到小色域的转换;其二,通过对大色域空间多余部分的整体切除来实现与小色域空间的坐标对齐。第一种方法因为对整体色域空间的压缩导致整体颜色信息的偏移从而造成全局失真,第二种方法因为对大色域的部分切除导致颜色像素信息的部分缺失造成部分结构失真。观察图 2可知无论是全局的信息损失还是局部结构失真在R、G、B三个零阶颜色分量上均有体现。正如图 2中黄色矩形框所示,色域映射图像中存在局部结构失真,而这类失真在3个颜色分量中均有体现;同时,色域映射图像整体对比度的变化也在3个颜色分量中有所反映。因此,在零阶颜色信息中利用R、G、B三个颜色分量的全局二维熵与颜色矩特征来衡量色域映射图像全局信息的丢失;其次将原本在灰度域上进行的MSCN系数[11]的NSS推广到R、G、B三个颜色分量上,从而提取能够衡量色域映射图像局部结构失真的质量感知特征。

    全局信息的丢失主要是色域压缩导致的像素偏移,衡量整体像素改变的最好方法是图像像素信息的统计值和二维熵。因此,此处采用颜色分量的二维熵和由统计而得四阶颜色矩来描述全局失真。

    一阶颜色矩是颜色分量系数的均值,二阶颜色矩是颜色分量系数的统计方差,三阶颜色矩是颜色分量系数统计分布的偏度,四阶颜色矩为颜色分量系数统计分布的峰度。关于矩对于图像质量评价的具体影响参考文献[24]。

    过去的质量评价算法基本都是从图像的灰度域提取图像的一维熵和矩特征;但本文算法从R、G、B三个颜色分量中提取图像二维熵和四阶颜色矩,既考虑了灰度信息的丢失也包含了颜色信息的变化。二维熵的计算公式如2.1.1小节的式(4)和式(5)。

    对于一幅M×N的图像f,其单通道的像素均值fm,标准差fst,偏斜度fsk和峰值fk的计算公式如下:

    $$ {f_{\text{m}}} = \frac{1}{{MN}}\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {f\left( {x, y} \right)} } $$ (15)
    $$ {f_{{\text{st}}}} = {\left[ {\frac{1}{{MN}}\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {{{\left[ {f\left( {x, y} \right) - {f_{\text{m}}}} \right]}^2}} } } \right]^{1/2}} $$ (16)
    $$ {f_{{\text{sk}}}} = \frac{{MN}}{{\left( {MN - 1} \right)\left( {MN - 2} \right)}} \times {\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {\left[ {\frac{{f\left( {x, y} \right) - {f_{\text{m}}}}}{{{f_{{\text{st}}}}}}} \right]} } ^3} $$ (17)
    $$ \begin{array}{l} {f_{\text{k}}} = \frac{{MN \times \left( {MN + 1} \right)}}{{\left( {MN - 1} \right)\left( {MN - 2} \right)\left( {MN - 3} \right)}} \times \hfill \\ \quad \;\;{\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {\left[ {\frac{{f\left( {x, y} \right) - {f_{\text{m}}}}}{{{f_{{\text{st}}}}}}} \right]} } ^4} - \frac{{3{{\left( {MN - 1} \right)}^2}}}{{\left( {MN - 2} \right)\left( {MN - 3} \right)}} \hfill \\ \end{array} $$ (18)

    式中:(x, y)为图像像素坐标;f(x, y)是坐标为(x, y)的像素值。零阶颜色分量的二维熵和颜色矩是本文算法的第三类特征T3,分别在R、G、B三个颜色分量上提取第三类特征。

    对图像的MSCN系数进行统计建模已经广泛应用于图像质量评价的无参考方法中来描述局部结构失真[11],大多数方法中皆是仅对灰度值的MSCN系数进行统计建模。由于灰度值是由R、G、B值线性计算而来的数学原理,此处将基于灰度值的MSCN系数统计建模推广到图像的R、G、B三个颜色分量上。经分析可知图像灰度值的MSCN系数的统计规律仍然适用于R、G、B三个颜色分量的MSCN系数的统计模型,此处以R分量为例。图 5呈现了图 1(a)~(d)的R颜色分量的MSCN系数统计分布图。图中清晰地呈现:图 1(a)的R分量的MSCN系数统计基本服从高斯分布,图 1(b)~(d)的图像质量逐渐降低,其MSCN系数的统计分布则偏离得越来越严重。因此,采用广义高斯分布(Generalized Gaussian Distribution, GGD)拟合图像3个颜色分量的MSCN系数从而提取质量感知特征。GGD的概率密度函数定义如公式(19):

    $$ g\left( {h;\alpha , \beta } \right) = \frac{\alpha }{{2\beta \varGamma \left( {1/\alpha } \right)}}\exp \left[ { - {{\left( {\frac{{\left| x \right|}}{\beta }} \right)}^\alpha }} \right] $$ (19)
    图  5  图 1中4张图的MSCN系数统计
    Figure  5.  Statistical chart of MSCN coefficients for 4 images in Fig. 1

    式中:Γ(·)是gamma函数:

    $$ \varGamma \left( h \right) = \int_0^\infty {{t^{h - 1}}{{\text{e}}^{ - t}}{\text{d}}t, } \quad h > 0 $$ (20)

    式中:参数α代表分布的形状;β代表系数分布的方差。αβ可以作为衡量图像局部失真的质量特征。

    同时,在颜色分量上相邻MSCN系数的乘积也可用于测量感知质量,特别是沿着水平和垂直方向。高清图像颜色分量的相邻MSCN乘积系数也可使用非对称广义高斯分布(Asymmetric Generalized Gaussian Distribution, AGGD)拟合。AGGD的概率密度函数如下:

    $$ {g_\alpha }\left( {h;\gamma , {\delta _l}, {\delta _r}} \right) = \left\{ {\begin{array}{*{20}{c}} {\frac{\gamma }{{\left( {{\delta _l} + {\delta _r}} \right)\varGamma \left( {\frac{1}{\gamma }} \right)}}\exp \left[ { - {{\left( {\frac{{ - h}}{{{\delta _l}}}} \right)}^2}} \right], \quad x < 0} \\ {\frac{\gamma }{{\left( {{\delta _l} + {\delta _r}} \right)\varGamma \left( {\frac{1}{\gamma }} \right)}}\exp \left[ { - {{\left( {\frac{h}{{{\delta _\gamma }}}} \right)}^2}} \right], \quad x \geqslant 0} \end{array}} \right. $$ (21)

    式中:$ \eta = \left( {{\delta _r} + {\delta _l}} \right)\frac{{\varGamma \left( {\frac{2}{\gamma }} \right)}}{{\varGamma \left( {\frac{1}{\gamma }} \right)}} $,γ是形状参数;δrδl是尺度参数;η是AGGD的均值。(η, γ, δr, δl)四个参数可作为质量感知特征。

    对图像进行下采样之后再次提取零阶颜色分量的自然场景统计特征以满足人类视觉系统的多层次特征,这是本文的第四类特征,用T4表示。

    为了将上述质量感知特征映射成一个整体分数来预测色域映射图像的质量,使用后向传播神经网络(Back Propagation Neural Network, BPNN)[25-26]来训练质量预测模型。BPNN是一个基础的神经网络,包含输入层、隐含层、输出层三层结构。输入层接收数据,输出层输出数据,前一层神经元连接到下一层神经元,收集上一层神经元传递来的信息,经过“激活”把值传递给下一层。在实际应用中,给定一张GMI,训练后的回归模型可以用来预测GMI的质量分数。

    本文算法在零阶颜色分量和一阶颜色分量中提取4类用于评价图像质量的感知特征,为验证这些特征对GMIs质量预测的有效性,将在Basic Study(BS),Image Gamut(IG),Local Contrast(LC)[27]三个GMIs数据库上进行对比实验。其中BS数据库的数据量最大,由97张高清无失真图像和1067张不同色域映射算法生成的GMIs组成,IG数据库和LC数据库分别由65、72幅原始图像和520、576幅GMIs图像组成。

    本节采用Pearson相关系数(Pearson linear Correlation Coefficient,PLCC)、Spearman相关系数(Spearman Rank Correlation Coefficient,SRCC)、Kendall相关系数(Kendall Rank Correlation Coefficient,KRCC)三个性能指标衡量算法性能。PLCC反映了主观评分与客观质量评分之间的线性相关性;SRCC和KRCC测量估计单调性。3个评价指标的取值区间均为[-1, 1],其值越大,代表图像质量评价算法的预测性能越好。3个指标的相关定义请参考文献[28]。

    由于所提出的算法模型需要一个训练过程来调整模型参数,因此将每个数据库随机分为不重叠的两部分进行模型训练和质量预测1000次,一部分为训练集(占数据库80%的图像),剩余图像作为测试集。最后测试的结果取1000次实验中的中位数。

    为了验证本文算法对GMIs质量的预测性能的优越性,进行对比实验:将本文算法对GMIs质量的预测性能与一些先进的NR-IQA方法的预测性能进行对比,其中包括:BRISQUE[11],DESIQUE[12],基于自由能熵的无参考方法(NR Free Energy-based Robust Metric, NFERM)[29],基于LCH颜色空间的NSS色域映射图像无参考质量评价(NR quality index for GMIs based on LCH color space NSS, GMLCH)[28],基于双阶结构退化和非局部统计的多重失真图像的盲质量评价方法(blind quality index for multiply distorted images using Bi-Order Structure degradation and nonlocal Statistics, BOSS)[21],基于色调映射图像的梯度和色度统计的盲视觉质量评价(blind visual quality evaluation method for tone-mapped images by using gradient and chromatic statistics, VQGC)[30],BLGS[13],基于不变性描述符的算法(Invariance DEscriptor-based Algorithm, IDEAL)[18],GMNSS[15]和GMCSD [16]。其中,IDEAL、GMLCH、BLGS、GMNSS、GMCSD和VQGC六种算法在提取质量感知特征时考虑了颜色信息,而其余算法均是从灰度域提取特征没有考虑颜色失真。最终实验结果如表 1所示,表 1中呈现了以上所有算法以及本文算法对3个数据库图像的质量预测性能,其中3个指标中最优值通过加粗显示,次优值通过斜体标注。本文算法在表 1中用Proposed表示。

    表  1  三个数据库中算法性能比较
    Table  1.  Comparative evaluation on the three gamut mapping databases
    Method BS database IG database LC database
    PLCC SRCC KRCC PLCC SRCC KRCC PLCC SRCC KRCC
    BRISQUE 0.7633 0.5678 0.4126 0.5153 0.4654 0.3345 0.5026 0.5274 0.3802
    DESIQUE 0.8213 0.5941 0.4354 0.5987 0.5666 0.4211 0.5692 0.5973 0.4429
    NFERM 0.7441 0.5566 0.4072 0.4399 0.4510 0.2968 0.4934 0.4985 0.3617
    IDEAL 0.7859 0.6652 0.4994 0.6195 0.6139 0.4550 0.5780 0.5989 0.4417
    GMNSS 0.8170 0.6774 0.5100 0.7369 0.7086 0.5526 0.6256 0.6154 0.4630
    GMCSD 0.8374 0.7028 0.5402 0.7508 0.7273 0.5633 0.6778 0.6848 0.5152
    BLGS 0.7865 0.7275 0.5116 0.7464 0.7165 0.5147 0.7573 0.7074 0.5033
    GMLCH 0.8385 0.7069 0.5337 0.6302 0.6039 0.4523 0.6565 0.6498 0.4876
    BOSS 0.4830 0.4826 0.3531 0.4573 0.4318 0.3167 0.7035 0.6021 0.4490
    VQGC 0.8315 0.7016 0.5334 0.5732 0.5442 0.4057 0.6298 0.6332 0.4675
    Proposed 0.8816 0.7394 0.5735 0.7944 0.7586 0.5929 0.7252 0.7360 0.5655
    下载: 导出CSV 
    | 显示表格

    表 1中的数据观察可知:除了LC数据库中的PLCC值以外,本文算法的所有性能指标取值均是最高的,这说明本文算法无论在预测单调性还是预测准确性方面均是最优的。同时从表中数据可知在提取特征时考虑了颜色信息的算法的预测性能普遍比没有考虑颜色信息的算法的预测性能好。这说明GMIs质量评价中颜色信息是必不可少的。

    过去的大多数算法皆是从零阶颜色信息中提取质量感知特征,本文不仅考虑了零阶颜色信息还考虑了一阶颜色信息。为了验证一阶颜色信息对于色域映射图像质量预测的必要性进行了以下实验:单独将零阶颜色特征与一阶颜色特征分别进行模型训练和质量预测,并对比预测结果。实验结果如图 6所示,此处采用PLCC作为性能评价指标。

    图  6  两阶颜色信息对算法性能的贡献
    Figure  6.  Contribution of two-order color information to algorithm performance

    图 6中“first-order”和“zeroth-order”分别表示仅采用一阶颜色特征和零阶颜色特征进行模型训练得到的预测性能,“Proposed”表示本文算法的预测性能。从图中可以观察到:虽然单独的一阶颜色特征对图像的预测性能十分有限,但是结合零阶颜色特征却能达到最佳的预测效果。这证明一阶颜色特征在色域映射图像质量预测中是必要且有效的。

    本文算法分别在一阶颜色分量和零阶颜色分量上提取了NSS统计特征和非NSS统计特征。为了验证两类特征的必要性,进行了消融实验:单独将两类特征进行模型训练和质量预测并对比实验结果。实验结果如表 2所示。

    表  2  NSS特征与非NSS统计特征的性能对比
    Table  2.  Performance comparison of NSS features with NON-NSS statistical features
    BS IG LC
    PLCC SRCC KRCC PCC SRCC KRCC PCC SRCC KRCC
    NSS 0.8098 0.6799 0.5171 0.5891 0.5721 0.4175 0.6550 0.6634 0.4928
    NO NSS 0.7038 0.4725 0.3394 0.5645 0.5241 0.3912 0.4713 0.3620 0.2677
    Proposed 0.8816 0.7394 0.5735 0.7944 0.7586 0.5929 0.7252 0.7360 0.5655
    下载: 导出CSV 
    | 显示表格

    表 2中“NSS”代表在一阶与零阶颜色分量上提取的自然场景统计特征,“NON-NSS”代表在一阶和零阶颜色分量上提取的非自然场景统计特征,“Proposed”表示本文算法。从表 2可知NSS特征与非NSS场景统计特征在本文算法中皆是必须的,只有两类特征结合才能达到最佳的预测效果。

    在本文算法的零阶颜色信息中提出使用R、G、B三个颜色分量既能表示图像的颜色失真也能表现图像的灰度失真的设想。为了验证该设想,我们进行了以下实验:在R与G分量上提取T3T4组成特征向量,在R与B分量上提取T3T4组成特征向量,在B与G分量上提取T3T4组成特征向量,在R、G、B三个分量上提取T3T4组成特征向量(即零阶颜色特征);将这4种情况下的特征向量分别进行模型训练与质量预测,预测性能对比如图 7所示。此处采用PLCC作为性能评价指标。

    图  7  R、G、B三个零阶颜色分量的性能贡献
    Figure  7.  Performance contribution of R, G and B zero-order color components

    图 7中可以清晰地获知在零阶颜色信息中的3个颜色分量上,任意取两个颜色分量皆没有3个颜色分量提取的特征预测性能高。每个颜色分量上提取的两类特征皆是必不可少的,只有3个颜色分量的结合才能达到最佳的预测性能。同时还单独在图像的灰度域提取了T3T4两类特征,并进行模型训练与质量预测。从实验结果可知,单独在灰度域提取特征进行训练得到的模型的预测性能是最低的,这说明色域映射图像中的颜色失真十分严重。而3个颜色分量的结合能够达到最佳的预测性能,这证明了R、G、B三个颜色分量的结合不仅能够表达图像的灰度失真,也能表达图像的颜色失真设想的合理性与有效性。

    在本文中,提出了一个基于双阶颜色表示的色域映射图像无参考质量评价方法。在该方法中不仅使用R、G、B三个颜色分量来表征结构失真和颜色失真,还在颜色空间导数即一阶颜色分量中提取相关的质量感知特征来补充表征颜色信息的损失。因为一阶颜色分量OA与SA是角度值,由于角度值具有循环特性,因此在计算其相邻像素差值时采用了其周期性的特质。最后通过大量实验证明本文算法在预测色域映射图像质量的优越性,以及一阶颜色分量的必要性。

  • 图  1   红外成像系统成像流程

    Figure  1.   Infrared imaging system imaging flow

    图  2   小波阈值降噪流程

    Figure  2.   Wavelet threshold denoising flow

    图  3   建筑物红外图像降噪效果视觉对比

    Figure  3.   Visual comparison of noise reduction effect of infrared image of building

    表  1   不同噪声水平下建筑物红外图像降噪算法的PSNR对比

    Table  1   PSNR comparison of building infrared image noise reduction algorithms at different noise levels

    Noise reduction algorithm Standard deviation
    0.01 0.02 0.03 0.04 0.05
    Median filtering 19.86 19.75 19.55 19.30 18.97
    Wavelet transform 19.70 19.60 19.43 19.21 18.93
    BM3D 26.54 26.44 26.32 26.09 25.98
    DnCNN 29.84 29.85 29.86 29.86 29.86
    FFDNeT 40.71 37.77 35.55 33.91 32.63
    SwinIR 34.18 34.14 34.04 33.87 33.56
    下载: 导出CSV

    表  2   不同噪声水平下建筑物红外图像降噪算法的SSIM对比

    Table  2   SSIM comparison of building infrared image noise reduction algorithms at different noise levels

    Noise reduction algorithm Standard deviation
    0.01 0.02 0.03 0.04 0.05
    Median filtering 0.5341 0.5341 0.5323 0.5309 0.5284
    Wavelet transform 0.3575 0.3565 0.3559 0.3549 0.3540
    BM3D 0.7459 0.7452 0.7440 0.7431 0.7430
    DnCNN 0.9496 0.9500 0.9504 0.9513 0.9525
    FFDNeT 0.9942 0.9900 0.9853 0.9805 0.9759
    SwinIR 0.9755 0.9757 0.9760 0.9764 0.9766
    下载: 导出CSV
  • [1] 唐麟, 刘琳, 苏君红. 红外图像噪声建模及仿真研究[J]. 红外技术, 2014, 36(7): 542-548. http://hwjs.nvir.cn/article/id/hwjs201407006

    TANG Lin, LIU Lin, SU Junhong. Research on modeling and simulation of infrared image noise[J]. Infrared Technology, 2014, 36(7): 542-548. http://hwjs.nvir.cn/article/id/hwjs201407006

    [2] 王加, 周永康, 李泽民, 等. 非制冷红外图像降噪算法综述[J]. 红外技术, 2021, 43(6): 557-565. http://hwjs.nvir.cn/article/id/380dcf6e-de3d-4411-ab70-e246d5c8ea27

    WANG Jia, ZHOU Yongkang, LI Zemin, et al. Review of noise reduction algorithms for uncooled infrared images[J]. Infrared Technology, 2021, 43(6): 557-565. http://hwjs.nvir.cn/article/id/380dcf6e-de3d-4411-ab70-e246d5c8ea27

    [3] 李相迪, 黄英, 张培晴, 等. 红外成像系统及其应用[J]. 激光与红外, 2014, 44(3): 229-234. DOI: 10.3969/j.issn.1001-5078.2014.03.01

    LI Xiangdi, HUANG Ying, ZHANG Peiqing, et al. Infrared imaging system and its application[J]. Laser & Infrared, 2014, 44(3): 229-234. DOI: 10.3969/j.issn.1001-5078.2014.03.01

    [4] 方莉, 张萍. 经典图像去噪算法研究综述[J]. 工业控制计算机, 2010, 23(11): 73-74. DOI: 10.3969/j.issn.1001-182X.2010.11.034

    FANG Li, ZHANG Ping. Research review of classical image denoising algorithms[J]. Industrial Control Computer, 2010, 23(11): 73-74. DOI: 10.3969/j.issn.1001-182X.2010.11.034

    [5] 张宇, 王希勤, 彭应宁. 自适应中心加权的改进均值滤波算法[J]. 清华大学学报(自然科学版), 1999(9): 76-78. DOI: 10.3321/j.issn:1000-0054.1999.09.021

    ZHANG Yu, WANG Xiqin, PENG Yingning. An improved mean filtering algorithm with adaptive center weighting[J]. Journal of Tsinghua University (Natural Science Edition), 1999(9): 76-78. DOI: 10.3321/j.issn:1000-0054.1999.09.021

    [6] 王海菊, 谭常玉, 王坤林, 等. 自适应高斯滤波图像去噪算法[J]. 福建电脑, 2017, 33(11): 5-6.

    WANG Haiju, TAN Changyu, WANG Kunlin, et al. Adaptive Gaussian filter image denoising algorithm[J]. Fujian Computer, 2017, 33(11): 5-6.

    [7] 李健, 丁小奇, 陈光, 等. 基于改进高斯滤波算法的叶片图像去噪方法[J]. 南方农业学报, 2019, 50(6): 1385-1391. DOI: 10.3969/j.issn.2095-1191.2019.06.31

    LI Jian, DING Xiaoqi, CHEN Guang, et al. Leaf image denoising method based on improved Gaussian filter algorithm[J]. Journal of Southern Agricultural Sciences, 2019, 50(6): 1385-1391. DOI: 10.3969/j.issn.2095-1191.2019.06.31

    [8] 朱志恩. 中值滤波技术在图像处理中的应用研究[D]. 沈阳: 东北大学, 2008.

    ZHU Zhien. Research on the Application of Median Filter Technology in Image Processing[D]. Shenyang: Northeastern University, 2008.

    [9] 赵高长, 张磊, 武风波. 改进的中值滤波算法在图像去噪中的应用[J]. 应用光学, 2011, 32(4): 678-682. DOI: 10.3969/j.issn.1002-2082.2011.04.017

    ZHAO Gaochang, ZHANG Lei, WU Fengbo. Application of improved median filter algorithm in image denoising[J]. Journal of Applied Optics, 2011, 32(4): 678-682. DOI: 10.3969/j.issn.1002-2082.2011.04.017

    [10] 刘智嘉, 夏寅辉, 杨德振, 等. 基于中值滤波器的红外图像噪声处理的改进方法[J]. 激光与红外, 2019, 49(3): 376-380.

    LIU Zhijia, XIA Yinhui, YANG Dezhen, et al. An improved method of infrared image noise processing based on median filter[J]. Laser & Infrared, 2019, 49(3): 376-380.

    [11] 王玉灵. 基于双边滤波的图像处理算法研究[D]. 西安: 西安电子科技大学, 2010.

    WANG Yuling. Research on Image Processing Algorithm Based on Bilateral Filtering [D]. Xi'an: Xidian University, 2010.

    [12]

    Barash D. Fundamental relationship between bilateral filtering, adaptive smoothing, and the nonlinear diffusion equation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(6): 844-847. http://www.osti.gov/cgi-bin/eprints/redirectEprintsUrl?http%3A%2F%2Fwww.cs.bgu.ac.il%2F~dbarash%2FPublications%2FIEEE_PAMI_2002.pdf

    [13]

    Spira A, Kimmel R, Sochen N. A short-time Beltrami kernel for smoothing images and manifolds[J]. IEEE Transactions on Image Processing, 2007, 16(6): 1628-1636. DOI: 10.1109/TIP.2007.894253

    [14]

    Kervrann C, Boulanger J. Optimal spatial adaptation for patch-based image denoising[J]. IEEE Transactions on Image Processing, 2006, 15(10): 2866-2878. http://www.onacademic.com/detail/journal_1000035577432310_51c5.html

    [15] 李迎春, 孙继平, 付兴建. 基于小波变换的红外图像去噪[J]. 激光与红外, 2006, 36(10): 988-991. DOI: 10.3969/j.issn.1001-5078.2006.10.021

    LI Yingchun, SUN Jiping, FU Jianjian. Infrared image denoising based on wavelet transform [J]. Laser & Infrared, 2006, 36(10): 988-991. DOI: 10.3969/j.issn.1001-5078.2006.10.021

    [16] 尉世强. 基于小波的图像阈值去噪方法[D]. 青岛: 青岛大学, 2006.

    WEI Shiqiang. Image Threshold Denoising Method Based on Wavelet[D]. Qingdao: Qingdao University, 2006.

    [17] 单锐, 齐越, 刘文. 一种改进的小波阈值去噪算法[J]. 兰州理工大学学报, 2014, 40(4): 101-104.

    SHAN Rui, QI Yue, LIU Wen. An improved wavelet threshold denoising algorithm[J]. Journal of Lanzhou University of Technology, 2014, 40(4): 101-104.

    [18]

    ZHANG X, LI J, XING J, et al. A particle swarm optimization technique-based parametric wavelet thresholding function for signal denoising[J]. Circuits, Systems, and Signal Processing, 2017, 36: 247-269. DOI: 10.1007/s00034-016-0303-x

    [19] 矫媛, 黄斌文. 基于小波变换的图像去噪方法综述[J]. 电子制作, 2015(7): 55-56. DOI: 10.3969/j.issn.1006-5059.2015.07.049

    JIAO Yuan, HUANG Binwen. Overview of image denoising methods based on Wavelet transform[J]. Electronic Production, 2015(7): 55-56. DOI: 10.3969/j.issn.1006-5059.2015.07.049

    [20]

    Donoho D L, Johnstone I M. Ideal spatial adaptation by wavelet shrinkage[J]. Biometrika, 1994, 81(3): 425-455. http://www.mendeley.com/research/wavelets-theory-algorithms-applications/

    [21]

    Donoho D L. De-noising by soft-thresholding[J]. IEEE Transactions on Information Theory, 1995, 41(3): 613-627. DOI: 10.1109/18.382009

    [22] 曹硕. 基于非局部均值的图像去噪方法研究[D]. 徐州: 中国矿业大学, 2018.

    CAO Shuo. Research on Image Denoising Method Based on Non-local Mean[D]. Xuzhou: China University of Mining and Technology, 2018.

    [23] 张军令, 唐卫国. 基于非局部均值滤波的小波红外图像去噪[J]. 红外, 2015, 36(3): 34-38. DOI: 10.3969/j.issn.1672-8785.2015.03.007

    ZHANG Junling, TANG Weiguo. Wavelet infrared image denoising based on non-local mean filtering[J]. Infrared, 2015, 36(3): 34-38. DOI: 10.3969/j.issn.1672-8785.2015.03.007

    [24]

    HEO Y C, KIM K, LEE Y. Image denoising using non-local means (NLM) approach in magnetic resonance (MR) imaging: a systematic review[J]. Applied Sciences, 2020, 10(20): 7028. DOI: 10.3390/app10207028

    [25] 李希达. 基于非局部自相似性的图像去噪算法[D]. 广州: 华南理工大学, 2020.

    LI Xida. Image Denoising Algorithm Based on Non-Local Self-Similarity[D]. Guangzhou: South China University of Technology, 2020.

    [26] 徐海. 基于改进三维块匹配滤波的图像去噪算法研究[D]. 贵阳: 贵州大学, 2021.

    XU Hai. Research on Image Denoising Algorithm Based on Improved 3D Block Matching Filter[D]. Guiyang: Guizhou University, 2021.

    [27] 高陈强, 李佩. 引导滤波和三维块匹配结合的红外图像去噪[J]. 重庆邮电大学学报(自然科学版), 2016, 28(2): 150-155.

    GAO Chenqiang, LI Pei. Infrared image denoising combined with guided filtering and 3D block matching[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2016, 28(2): 150-155.

    [28] 张哲熙. 基于BM3D的图像去噪算法研究[D]. 西安: 西安电子科技大学, 2017.

    ZHANG Zhexi. Research on Image Denoising Algorithm Based on BM3D[D]. Xi'an: Xidian University, 2017.

    [29]

    DU D, PAN Z, ZHANG P, et al. Compressive sensing image recovery using dictionary learning and shape-adaptive DCT thresholding[J]. Magnetic Resonance Imaging, 2019, 55: 60-71. http://www.xueshufan.com/publication/2890387360

    [30]

    LIU B, LIU J. Overview of image denoising based on deep learning[J]. Journal of Physics: Conference Series, 2019, 1176(2): 022010.

    [31] 刘迪, 贾金露, 赵玉卿, 等. 基于深度学习的图像去噪方法研究综述[J]. 计算机工程与应用, 2021, 57(7): 1-13.

    LIU Di, JIA Jinlu, ZHAO Yuqing, et al. A review of image denoising methods based on deep learning[J]. Computer Engineering and Applications, 2019, 57(7): 1-13.

    [32] 朱宜生, 孙成. 基于卷积神经网络的红外图像去噪方法研究[J]. 环境技术, 2019, 37(6): 99-103.

    ZHU Yisheng, SUN Cheng. Research on infrared image denoising method based on Convolutional neural network[J]. Environmental Technology, 2019, 37(6): 99-103.

    [33]

    Kanika G. Study of Deep Learning Techniques on Image Denoising[C]// IOP Conference Series: Materials Science and Engineering, 2021, 1022(1): 012007.

    [34]

    Ilesanmi E A, Ilesanmi O T. Methods for image denoising using convolutional neural network: a review[J]. Complex & Intelligent Systems, 2021, 7(5): 1-20.

    [35]

    LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324. DOI: 10.1109/5.726791

    [36]

    Krizhevsky Alex, Ilya Sutskever, Geoffrey E Hinton. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90. DOI: 10.1145/3065386

    [37]

    Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J/OL]. arXiv: 1409.1556, https://arxiv.org/abs/1409.1556.

    [38]

    Szegedy Christian, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[J]. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015: 1-9. http://home.ustc.edu.cn/~jzh0103/pdf_link/pdf/1409.4842.pdf

    [39]

    HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

    [40]

    Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv: 1511.06434, 2015.

    [41]

    TIAN C, FEI L, ZHENG W, et al. Deep learning on image denoising: An overview[J]. Neural Networks, 2020, 131: 251-275.

    [42]

    XU Q, ZHANG C, ZHANG L. Denoising convolutional neural network[C]//2015 IEEE International Conference on Information and Automation, IEEE, 2015: 1184-1187.

    [43]

    LIANG J, LIU R. Stacked denoising autoencoder and dropout together to prevent overfitting in deep neural network[C]//2015 8th International Congress on Image and Signal Processing (CISP). IEEE, 2015: 697-701.

    [44]

    CHENG W, LIN L. Application of improved neural network algorithm in image denoising and edge detection[J]. International Journal of Signal Processing, Image Processing and Pattern Recognition, 2016, 9(6): 269-282.

    [45]

    ZHANG K, ZUO W, GU S, et al. Learning deep CNN denoiser prior for image restoration[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 3929-3938.

    [46]

    KUANG X, SUI X, LIU Y, et al. Single infrared image optical noise removal using a deep convolutional neural network[J]. IEEE Photonics Journal, 2017, 10(2): 1-15. http://ieeexplore.ieee.org/document/7954611/

    [47]

    ZHANG K, ZUO W, ZHANG L. FFDNet: Toward a fast and flexible solution for CNN-based image denoising[J]. IEEE Transactions on Image Processing, 2018, 27(9): 4608-4622. http://doc.paperpass.com/patent/arXiv171004026.html

    [48]

    HAN Y, YE J C. Framing U-Net via deep convolutional framelets: Application to sparse-view CT[J]. IEEE Transactions on Medical Imaging, 2018, 37(6): 1418-1429. http://ieeexplore.ieee.org/document/8332969/authors

    [49]

    HE Z, CAO Y, DONG Y, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: A deep-learning approach[J]. Applied Optics, 2018, 57(18): D155-D164.

    [50]

    YAN H, CHEN X, TAN V Y F, et al. Unsupervised image noise modeling with self-consistent GAN[J]. arXiv preprint arXiv: 1906.05762, 2019.

    [51]

    ZHANG K, ZUO W, ZHANG L. Deep plug-and-play super-resolution for arbitrary blur kernels[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 1671-1681.

    [52]

    ZHANG K, Gool L V, Timofte R. Deep unfolding network for image super-resolution[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 3217-3226.

    [53]

    LI M, HSU W, XIE X, et al. SACNN: Self-attention convolutional neural network for low-dose CT denoising with self-supervised perceptual loss network[J]. IEEE Transactions on Medical Imaging, 2020, 39(7): 2289-2301. http://d.wanfangdata.com.cn/periodical/8176255348d859f4808a36c988f9abb8

    [54]

    LIANG J, CAO J, SUN G, et al. Swinir: Image restoration using swin transformer[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021: 1833-1844.

    [55]

    ZHU Y, ZHANG K, LIANG J, et al. Denoising diffusion models for plug-and-play image restoration[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023: 1219-1229.

    [56] 杨成佳. 图像去噪及其效果评估若干问题研究[D]. 长春: 吉林大学, 2016.

    YANG Chengjia. Research on Some Problems of Image Denoising and Its Effect Evaluation[D]. Changchun: Jilin University, 2016.

图(3)  /  表(2)
计量
  • 文章访问数:  33
  • HTML全文浏览量:  5
  • PDF下载量:  19
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-12-14
  • 修回日期:  2024-02-28
  • 刊出日期:  2025-03-19

目录

/

返回文章
返回