风电场无人机巡检红外叶片图像拼接算法

周登科, 郭星辰, 史凯特, 汤鹏, 郑开元, 马鹏阁

周登科, 郭星辰, 史凯特, 汤鹏, 郑开元, 马鹏阁. 风电场无人机巡检红外叶片图像拼接算法[J]. 红外技术, 2023, 45(11): 1161-1168.
引用本文: 周登科, 郭星辰, 史凯特, 汤鹏, 郑开元, 马鹏阁. 风电场无人机巡检红外叶片图像拼接算法[J]. 红外技术, 2023, 45(11): 1161-1168.
ZHOU Dengke, GUO Xingchen, SHI Kaite, TANG Peng, ZHENG Kaiyuan, MA Pengge. Infrared Blade Image Stitching Algorithm for Wind Farm UAV Inspection[J]. Infrared Technology , 2023, 45(11): 1161-1168.
Citation: ZHOU Dengke, GUO Xingchen, SHI Kaite, TANG Peng, ZHENG Kaiyuan, MA Pengge. Infrared Blade Image Stitching Algorithm for Wind Farm UAV Inspection[J]. Infrared Technology , 2023, 45(11): 1161-1168.

风电场无人机巡检红外叶片图像拼接算法

基金项目: 

国家自然科学基金民航联合基金重点项目 U1833203

中国长江三峡集团有限公司企业科研项目“海上风电无人机光电巡检系统技术研究及应用示范” 202003035

河南省科技攻关 202102210330

河南省科技攻关 222102210136

郑州航空工业管理学院研究生教育创新计划基金 2021CX48

详细信息
    作者简介:

    周登科(1995-),男,四川人,初级工程师,硕士研究生,从事图像处理工作。E-mail:zhou_dengke@ctg.com.cn

    通讯作者:

    郭星辰(1997-),男,河南郑州人,硕士研究生,从事图像处理研究。E-mail:478973623@qq.com

  • 中图分类号: TP391

Infrared Blade Image Stitching Algorithm for Wind Farm UAV Inspection

  • 摘要: 针对无人机拍摄叶片红外图像背景冗余信息较多、拼接精度不高等问题,本文提出一种基于形态学改进Chan-Vese分割与局部特征匹配的红外风机叶片图像拼接算法,首先,对图像进行中值滤波降噪,使用形态学运算改进基于Chan-Vese模型的水平集算法,生成表达主体的掩膜。基于掩膜去除冗余背景提取局部Harris特征点;对掩膜进行二次形态学腐蚀处理,抑制边界锯齿像素上的伪特征点;最后,使用暴力匹配及随机抽样一致(Random Sample Consensus, RANSAC)算法筛选出有效匹配点对,计算单应性矩阵实现匹配拼接。与传统图像分割下Harris拼接算法相比,本文改进后的算法拼接精度有明显提高,在不同的测试场景下显示出较强鲁棒性。
    Abstract: Aiming at more redundant background information and low stitching accuracy of the infrared images of the blades taken by UAV (Unmanned Aerial Vehicle), In this study, we proposed a stitching algorithm for infrared wind turbine blade images combining the Chan-Vese model and morphology. First, we subjected the image to median filtering and noise reduction, and a morphological operation improved a level-set algorithm based on the Chan-Vese model to generate the mask of the expression subject. We extracted Harris feature points by removing redundant backgrounds based on the mask. We performed morphological etching on the mask to suppress the pseudo-feature points on the boundary-jagged pixels. We used violent matching and the RANSAC algorithm to screen out effective matching point pairs and calculate the homography matrix to realize matching and splicing. Compared with the Harris stitching algorithm under traditional image segmentation, the stitching accuracy of the improved algorithm significantly improved, and it showed strong robustness in different test scenarios.
  • 随着成像技术在图像处理领域的不断发展,图像在不同设备之间的传输与再现成为必然。为了实现图像在不同设备之间的高保真再现,大量的色域映射算法被提出[1-5]。一般说来,理想的色域映射算法转换后的色域映射图像(Gamut-Mapped Images,GMIs)保持较高的对比度、色彩、亮度和结构。为了设计鲁棒的色域映射算法,需要一个通用的色域映射图像质量评价模型对GMIs进行实时的质量评价。然而,经典的主观图像质量评价方法由于耗时、成本高等因素存在诸多局限性。

    客观的图像质量评价(Image Quality Assessment,IQA)方法根据对参考图像的需求情况可分为全参考质量评价(Full Reference IQA,FR-IQA)、半参考质量评价(Reduced Reference IQA,RR-IQA)和无参考质量评价(No Reference IQA,NR-IQA)三类[6-10]。在客观IQA方法中,NR-IQA方法因其在没有参考图像的情况下的适用性而受到关注与重点研究,NR-IQA方法也称为盲质量评价(Blind IQA,BIQA)方法。在NR-IQA方法中广泛使用的原理是自然场景统计(Natural Scene Statistics,NSS),其假设高质量的图像在视觉上是自然的,其像素信息具有一定的统计规律,而引入的失真往往会破坏自然,统计规律会被改变或者破坏;因此可以对图像的系数信息进行统计建模[8]。例如:盲/无参考图像空间质量评估(Blind/Referenceless Image Spatial QUality Evaluator,BRISQUE)[11]算法通过拟合多个类高斯分布提取亮度特征;基于导数统计的质量评估(Derivative Statistics-based Quality Evaluator,DESIQUE)[12]算法通过对图像亮度的导数和Gabor滤波器系数进行高斯统计建模。

    在GMIs中,色域映射引起的失真主要包括结构退化、对比度失真和色调漂移,这与一般IQA研究探索的合成失真不同。因此,传统的IQA方法不适用于评价GMIs的视觉质量[13]。如图 1所示,图 1(a)是一张原始高清图像,对图 1(a)采用三类色域映射算法进行转换,生成3张质量不同的GMIs,即图 1(b)~(d)。图中MOS(Mean Opinion Score)指代图像的主观质量评分,其评分逐渐降低;但是采用传统图像质量评价方法结构相似性质量模型(Structural Similarity Quality Model,SSIM)[14]得到的客观图像质量评分并不是逐渐降低的。因此,传统的图像质量评价方法并不能准确预测色域映射图像质量。为此,本文结合色域映射图像的失真特性提出了基于双阶颜色信息的色域映射图像无参考质量评价算法。该算法将分别从零阶颜色信息与一阶颜色信息中提取图像的细节纹理信息与粗糙轮廓信息。

    图  1  原始高清图像和3张由不同色域映射算法生成的GMIs
    Figure  1.  The original image and three GMIs generated by different gamut mapping algorithms

    相较于传统图像质量评价方法,针对GMIs的IQA方法相对较少。Cai等人[15]提出通过局部与全局统计分析的GMIs盲质量评价(Blind quality assessment of GMIs via Local and Global Statistical analysis,BLGS)算法。该算法中图像首先被转换成LAB2000HL色彩空间,接着提取局部NSS特征用于描述结构和颜色失真,其次提取全局NSS特征用于描述全局自然度失真。文献[13]于2020年提出了基于NSS模型的GMIs无参考图像质量评价(NR quality evaluation for GMIs based on NSS,GMNSS)方法。该方法对颜色三属性(即亮度、彩度、色调)进行NSS,其中亮度频域的NSS特征用来表示图像的结构失真和对比度失真,彩度和色调的空间域NSS特征用来表示颜色失真。Yu等人[16]提出基于颜色与结构失真的GMIs无参考质量评价算法(NR quality evaluation algorithm for GMIs based on Color and Structural Distortions,GMCSD),该算法提取色调异常率描述图像的色调漂移、相对熵衡量对比度失真、NSS特征描述结构失真。以上算法在预测GMIs质量方面做出突出贡献,但其预测结果的精确度还有提升的空间。

    将颜色信息与灰度信息分开考虑是以往方法的惯用思维,从灰度域提取描述图像结构失真的特征,在颜色分量上考虑颜色失真的描述。但是图像的灰度值是由R、G、B三个颜色分量根据公式(1)计算而得,公式(1)如下[17]

    $$ F_{\mathrm{gr}}=0.2989 F_{\mathrm{r}}+0.5870 F_{\mathrm{g}}+0.1140 F_{\mathrm{b}} $$ (1)

    式中:Fgr为图像的灰度系数;FrFgFb分别为图像在RGB颜色空间中的R、G、B三维颜色系数。由此可知,图像的灰度系数是由图像R、G、B三维颜色系数决定的。所以可以假设R、G、B颜色信息的结合不仅能描述图像颜色失真也能描述图像灰度结构失真。

    同时,无论是饱和度还是色调均是基于R、G、B值的线性运算而得的零阶颜色信息,很少有方法考虑到R、G、B值的空间导数信息即一阶颜色信息[18]

    文献[18]中根据图像颜色的一阶导数信息提出了两个颜色分量(即一阶颜色信息):opponent angle(OA)和spherical angle(SA),其定义为公式(2)和公式(3):

    $$ \mathrm{OA}=\tan ^{-1}\left(\mathrm{opp}_{1, x} / \mathrm{opp}_{2, x}\right) $$ (2)
    $$ \mathrm{SA}=\tan ^{-1}\left(\operatorname{sph}_{1, x} / \mathrm{sph}_{2, x}\right) $$ (3)

    式中:OA和SA是角度值,其取值范围为0~360°(或者0~2π)。opp1, x,opp2, x,sph1, x和sph2, x分别是颜色空间导数信息。详细情况请参考文献[18]。

    图 2显示了原始高清图像和GMI在零阶和一阶的颜色分量对比图。图中(a)是原始无失真图像,(g)是有失真的GMI,(b)和(c)分别为原始图像的OA和SA信息分量图,(h)和(i)分别为GMI的OA和SA信息分量图,(d)~(f)分别是原始图像的R、G、B颜色分量图,(j)~(l)分别是GMI的R、G、B颜色分量图。零阶颜色信息即R、G、B颜色分量图中可以清晰显示图像的细节信息,而一阶颜色信息即OA和SA分量图中能够抓取图像一些粗糙的轮廓信息,两方面信息可以作为互补。

    图  2  原始高清图像和色域映射图像在零阶和一阶的颜色分量图。(a) 原始图像;(b)-(f)分别为(a)的OA、SA、R、G、B分量图;(g) 色域映射图像;(h)-(l)分别为(g)的OA、SA、R、G、B分量图
    Figure  2.  Zero-order and first-order color component of original image and GMI. (a) is the original image; (b)-(f) are OA、SA、R、G、B component of (a) respectively; (g) is the GMI; (h)-(l) are OA、SA、R、G、B component of (g) respectively

    结合R、G、B颜色信息不仅能表征图像颜色失真也能表征图像灰度结构失真的设想与颜色的空间导数信息,本文提出了基于双阶颜色信息的GMIs无参考质量评价方法。在R、G、B三个分量上提取零阶颜色信息表征图像的细节信息的损失,在R、G、B的空间导数信息中提取一阶颜色信息表征图像的轮廓信息的变化,算法框架如图 3所示。该算法中打破以往IQA研究中颜色失真与灰度结构失真分开考虑的惯例,从R、G、B三个颜色分量中提取既能描述颜色失真也能描述灰度失真的特征,同时将颜色的一阶导数信息用于图像质量评价中提取描述图像轮廓信息损失的特征作为补充特征增强算法性能。

    图  3  双阶颜色信息质量评价算法框架
    Figure  3.  Flowchart of the double-order color information quality evaluation

    在本文算法中,计算R、G、B三个零阶颜色分量的二维熵和颜色矩信息以进行图像细节信息损失的测量,其次在OA和SA两个一阶颜色分量上提取二维熵和奇异值以进行图像一阶颜色能量损失的测量,以此作为对零阶颜色信息的补充。同时图像颜色信息的损失导致图像颜色偏离、对比度失真等,使得图像看起来十分不自然,存在自然度失真,因此对双阶颜色信息进行NSS提取特征来量化图像的自然度失真。

    一阶颜色信息作为零阶颜色信息的补充,是R、G、B颜色信息的空间导数,提供图像场景的稳健的像素级描述,其受场景偶然因素(例如,视觉几何和照明变化)的影响较小,因此一阶颜色分量(OA和SA)能够提供更稳定的颜色信息。对比图 2(b)(c)图 2(h)(i)可以发现,色域映射过程会造成一阶颜色分量的结构退化。而结构退化主要表现为结构上的信息量和能量的变化。本文中将采用一阶颜色分量的二维熵来测量信息量的变化,使用奇异值来量化结构能量的丢失,采用自然场景统计的方式来量化自然度失真。

    与广泛使用的香农熵相比[19-20],二维熵包含像素与相邻像素之间的邻域信息,构成一个新的特征二元组,不仅可以衡量信息量,还可以反映像素值的分布特征[21-23]。尺寸为m×n的图像的二维熵FE的定义请见公式(4)~(5):

    $$ {P_{i, j}} = \frac{{L\left( {i, j} \right)}}{{m \times n}} $$ (4)
    $$ {F_{\text{E}}} = - \sum\limits_{i = 0}^{360} {{P_{i, j}}\log {P_{i, j}}} $$ (5)

    式中:L(i, j)为特征二元组(i, j)出现的频数;i为像素值;j为该像素邻域内的像素均值;由于一阶颜色分量均为角度值,所以其取值范围为0~360°。

    为了计算结构能量,在一阶颜色分量图上计算奇异值[23]。分量图I首先被分为b×b的图像块。对于一个图像块Bz可以被表示为:

    $$ \boldsymbol{B}_Z=\boldsymbol{U}_Z \boldsymbol{S}_Z \boldsymbol{V}_Z^{\mathrm{T}} \quad Z=1, 2, \cdots, R $$ (6)

    式中:R为一个分量图中总的图像块数;UZVZ均为b×b的方阵,满足UZTUZEVZTVZE,上标T代表矩阵转置,E表示单位矩阵;SZ为对角矩阵,见公式(7):

    $$ {\boldsymbol{S}_Z} = \left[ {\begin{array}{*{20}{l}} {{\xi _1}}&0& \cdots &0&0 \\ 0&{{\xi _2}}& \cdots &0&0 \\ 0&0& \ddots &0&0 \\ 0&0& \cdots &{{\xi _{b - 1}}}&0 \\ 0&0& \cdots &0&{{\xi _b}} \end{array}} \right] $$ (7)

    SZ对角线上的值即为图像块BZ的奇异值,图像块BZ的平均奇异值为YZYZ的定义如公式(8):

    $$ {Y_Z} = \frac{{{\xi _1} + {\xi _2} + \cdots + {\xi _b}}}{b} $$ (8)

    为了减少图像内容对结构能量的影响,采用图像块局部方差对YZ进行归一化,归一化的定义如公式(9):

    $$ {Y'_Z} = \frac{{{Y_Z}}}{{\sigma _Z^2}} $$ (9)

    式中:σZ2为图像块BZ的像素方差。计算所有图像块的归一化奇异值的平均值Qsuv作为衡量一阶颜色分量能量损失的特征。Qsuv的定义如公式(10):

    $$ {Q_{{\text{suv}}}} = \frac{{\sum\limits_{Z = 1}^R {{{Y'}_Z}} }}{R} $$ (10)

    图像颜色导数信息是传达局部图像结构(例如,边缘,纹理)的关键信息,并且与人类视觉系统的中心环绕机制具有对应关系。之前的研究表明,基于图像空间导数的一阶颜色信息可以建立自然场景统计模型[18]。值得注意的是,一阶颜色分量OA和SA提取的局部结构信息与基于亮度提取的局部结构信息不同。例如,由均值减损对比归一化(mean subtracted contrast normalized, MSCN)系数[11]捕获的图像边界信息包含由场景偶然因素造成的边界(例如,由物体相对于光源的形状或位置引起的边缘)和物体实际边界(例如,两个物体之间的边缘或物体与背景之间的过渡),而一阶颜色分量OA和SA更强调后者即物体的实际边界[18]。因此本文计算一阶颜色分量OA和SA的水平与垂直两个方向的空间相邻系数的差值系数,以此来消除像素的空间依赖性。相邻差值系数计算如公式(11)~(13):

    $$ H_l(i, j)=\psi[I(i, j+1), I(i, j)] $$ (11)
    $$ V_I(i, j)=\psi[I(i+1, j), I(i, j)] $$ (12)
    $$ \psi \left( {{\theta _1}, {\theta _2}} \right) = \left\{ {\begin{array}{*{20}{l}} {{\theta _1} - {\theta _2}, \quad - {\text{π }} \leqslant {\theta _1} - {\theta _2} \leqslant {\text{π }}} \\ {{\theta _1} - {\theta _2} + 2{\text{π , }}\quad - 2{\text{π }} \leqslant {\theta _1} - {\theta _2} < - {\text{π }}} \\ {{\theta _1} - {\theta _2} - 2{\text{π , }}\quad {\text{π }} < {\theta _1} - {\theta _2} \leqslant 2{\text{π }}} \end{array}} \right. $$ (13)

    式中:(i, j)为像素坐标,公式(11)是垂直方向的相邻差值系数计算,公式(12)是水平方向的相邻差值系数计算。因为OA和SA分量是可循环的角度值,取值范围为[0, 2π),因此需要注意两个角度值的实际差距应该是在[-π, π]之间,而并非数学意义上的[0, 2π)。对一阶颜色分量的相邻像素差值系数进行统计分析,图 4绘制了图 1中4幅图像的OA与SA分量的相邻差值系数的统计分布图以及标准的高斯分布和柯西分布,从图中可以看出柯西分布存在重尾的情况,系数分布得更加分散,而高斯分布的系数更多地集中在均值附近。高清图像的一阶颜色分量相邻差值系数更符合柯西分布。因此,可以使用柯西分布对一阶颜色分量的相邻差值系数进行统计建模。柯西分布的密度函数见公式(14):

    $$ \varUpsilon \left( {h;\varepsilon , \rho } \right) = \frac{1}{{2{\text{π }}}}\frac{{1 - {\rho ^2}}}{{1 + {\rho ^2} - 2\rho \cos \left( {x - \varepsilon } \right)}}, \quad - {\text{π }} \leqslant x < {\text{π }} $$ (14)
    图  4  图 1中4幅图像一阶颜色分量的相邻差值经验分布图系数分布
    Figure  4.  Empirical distribution of adjacent difference of first-order color components of the four images in Figure 1

    式中:h为函数变量;ε为位置参数;ρ为尺度参数,参数(ε, ρ)可以作为评价颜色信息的有效质量感知特征。同时由图 4可知每个差值系数分布的峰值呈现很大的区别,因此峰值也可以作为质量感知特征。

    由于人类视觉系统的多层次特性,对图像进行下采样之后再次提取一阶颜色分量的自然场景统计特征。

    综上所述,分别在一阶颜色分量OA与SA中提取了两类特征T1T2T1为量化一阶颜色分量全局结构能量损失的二维熵与奇异值;T2为表征一阶颜色分量自然度失真的NSS特征。

    分析色域映射算法的映射原理,其不同色域之间的颜色坐标转换主要采用两种方式:其一,通过对色域空间的整体压缩来实现大色域到小色域的转换;其二,通过对大色域空间多余部分的整体切除来实现与小色域空间的坐标对齐。第一种方法因为对整体色域空间的压缩导致整体颜色信息的偏移从而造成全局失真,第二种方法因为对大色域的部分切除导致颜色像素信息的部分缺失造成部分结构失真。观察图 2可知无论是全局的信息损失还是局部结构失真在R、G、B三个零阶颜色分量上均有体现。正如图 2中黄色矩形框所示,色域映射图像中存在局部结构失真,而这类失真在3个颜色分量中均有体现;同时,色域映射图像整体对比度的变化也在3个颜色分量中有所反映。因此,在零阶颜色信息中利用R、G、B三个颜色分量的全局二维熵与颜色矩特征来衡量色域映射图像全局信息的丢失;其次将原本在灰度域上进行的MSCN系数[11]的NSS推广到R、G、B三个颜色分量上,从而提取能够衡量色域映射图像局部结构失真的质量感知特征。

    全局信息的丢失主要是色域压缩导致的像素偏移,衡量整体像素改变的最好方法是图像像素信息的统计值和二维熵。因此,此处采用颜色分量的二维熵和由统计而得四阶颜色矩来描述全局失真。

    一阶颜色矩是颜色分量系数的均值,二阶颜色矩是颜色分量系数的统计方差,三阶颜色矩是颜色分量系数统计分布的偏度,四阶颜色矩为颜色分量系数统计分布的峰度。关于矩对于图像质量评价的具体影响参考文献[24]。

    过去的质量评价算法基本都是从图像的灰度域提取图像的一维熵和矩特征;但本文算法从R、G、B三个颜色分量中提取图像二维熵和四阶颜色矩,既考虑了灰度信息的丢失也包含了颜色信息的变化。二维熵的计算公式如2.1.1小节的式(4)和式(5)。

    对于一幅M×N的图像f,其单通道的像素均值fm,标准差fst,偏斜度fsk和峰值fk的计算公式如下:

    $$ {f_{\text{m}}} = \frac{1}{{MN}}\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {f\left( {x, y} \right)} } $$ (15)
    $$ {f_{{\text{st}}}} = {\left[ {\frac{1}{{MN}}\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {{{\left[ {f\left( {x, y} \right) - {f_{\text{m}}}} \right]}^2}} } } \right]^{1/2}} $$ (16)
    $$ {f_{{\text{sk}}}} = \frac{{MN}}{{\left( {MN - 1} \right)\left( {MN - 2} \right)}} \times {\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {\left[ {\frac{{f\left( {x, y} \right) - {f_{\text{m}}}}}{{{f_{{\text{st}}}}}}} \right]} } ^3} $$ (17)
    $$ \begin{array}{l} {f_{\text{k}}} = \frac{{MN \times \left( {MN + 1} \right)}}{{\left( {MN - 1} \right)\left( {MN - 2} \right)\left( {MN - 3} \right)}} \times \hfill \\ \quad \;\;{\sum\limits_{x = 0}^{M - 1} {\sum\limits_{y = 0}^{N - 1} {\left[ {\frac{{f\left( {x, y} \right) - {f_{\text{m}}}}}{{{f_{{\text{st}}}}}}} \right]} } ^4} - \frac{{3{{\left( {MN - 1} \right)}^2}}}{{\left( {MN - 2} \right)\left( {MN - 3} \right)}} \hfill \\ \end{array} $$ (18)

    式中:(x, y)为图像像素坐标;f(x, y)是坐标为(x, y)的像素值。零阶颜色分量的二维熵和颜色矩是本文算法的第三类特征T3,分别在R、G、B三个颜色分量上提取第三类特征。

    对图像的MSCN系数进行统计建模已经广泛应用于图像质量评价的无参考方法中来描述局部结构失真[11],大多数方法中皆是仅对灰度值的MSCN系数进行统计建模。由于灰度值是由R、G、B值线性计算而来的数学原理,此处将基于灰度值的MSCN系数统计建模推广到图像的R、G、B三个颜色分量上。经分析可知图像灰度值的MSCN系数的统计规律仍然适用于R、G、B三个颜色分量的MSCN系数的统计模型,此处以R分量为例。图 5呈现了图 1(a)~(d)的R颜色分量的MSCN系数统计分布图。图中清晰地呈现:图 1(a)的R分量的MSCN系数统计基本服从高斯分布,图 1(b)~(d)的图像质量逐渐降低,其MSCN系数的统计分布则偏离得越来越严重。因此,采用广义高斯分布(Generalized Gaussian Distribution, GGD)拟合图像3个颜色分量的MSCN系数从而提取质量感知特征。GGD的概率密度函数定义如公式(19):

    $$ g\left( {h;\alpha , \beta } \right) = \frac{\alpha }{{2\beta \varGamma \left( {1/\alpha } \right)}}\exp \left[ { - {{\left( {\frac{{\left| x \right|}}{\beta }} \right)}^\alpha }} \right] $$ (19)
    图  5  图 1中4张图的MSCN系数统计
    Figure  5.  Statistical chart of MSCN coefficients for 4 images in Fig. 1

    式中:Γ(·)是gamma函数:

    $$ \varGamma \left( h \right) = \int_0^\infty {{t^{h - 1}}{{\text{e}}^{ - t}}{\text{d}}t, } \quad h > 0 $$ (20)

    式中:参数α代表分布的形状;β代表系数分布的方差。αβ可以作为衡量图像局部失真的质量特征。

    同时,在颜色分量上相邻MSCN系数的乘积也可用于测量感知质量,特别是沿着水平和垂直方向。高清图像颜色分量的相邻MSCN乘积系数也可使用非对称广义高斯分布(Asymmetric Generalized Gaussian Distribution, AGGD)拟合。AGGD的概率密度函数如下:

    $$ {g_\alpha }\left( {h;\gamma , {\delta _l}, {\delta _r}} \right) = \left\{ {\begin{array}{*{20}{c}} {\frac{\gamma }{{\left( {{\delta _l} + {\delta _r}} \right)\varGamma \left( {\frac{1}{\gamma }} \right)}}\exp \left[ { - {{\left( {\frac{{ - h}}{{{\delta _l}}}} \right)}^2}} \right], \quad x < 0} \\ {\frac{\gamma }{{\left( {{\delta _l} + {\delta _r}} \right)\varGamma \left( {\frac{1}{\gamma }} \right)}}\exp \left[ { - {{\left( {\frac{h}{{{\delta _\gamma }}}} \right)}^2}} \right], \quad x \geqslant 0} \end{array}} \right. $$ (21)

    式中:$ \eta = \left( {{\delta _r} + {\delta _l}} \right)\frac{{\varGamma \left( {\frac{2}{\gamma }} \right)}}{{\varGamma \left( {\frac{1}{\gamma }} \right)}} $,γ是形状参数;δrδl是尺度参数;η是AGGD的均值。(η, γ, δr, δl)四个参数可作为质量感知特征。

    对图像进行下采样之后再次提取零阶颜色分量的自然场景统计特征以满足人类视觉系统的多层次特征,这是本文的第四类特征,用T4表示。

    为了将上述质量感知特征映射成一个整体分数来预测色域映射图像的质量,使用后向传播神经网络(Back Propagation Neural Network, BPNN)[25-26]来训练质量预测模型。BPNN是一个基础的神经网络,包含输入层、隐含层、输出层三层结构。输入层接收数据,输出层输出数据,前一层神经元连接到下一层神经元,收集上一层神经元传递来的信息,经过“激活”把值传递给下一层。在实际应用中,给定一张GMI,训练后的回归模型可以用来预测GMI的质量分数。

    本文算法在零阶颜色分量和一阶颜色分量中提取4类用于评价图像质量的感知特征,为验证这些特征对GMIs质量预测的有效性,将在Basic Study(BS),Image Gamut(IG),Local Contrast(LC)[27]三个GMIs数据库上进行对比实验。其中BS数据库的数据量最大,由97张高清无失真图像和1067张不同色域映射算法生成的GMIs组成,IG数据库和LC数据库分别由65、72幅原始图像和520、576幅GMIs图像组成。

    本节采用Pearson相关系数(Pearson linear Correlation Coefficient,PLCC)、Spearman相关系数(Spearman Rank Correlation Coefficient,SRCC)、Kendall相关系数(Kendall Rank Correlation Coefficient,KRCC)三个性能指标衡量算法性能。PLCC反映了主观评分与客观质量评分之间的线性相关性;SRCC和KRCC测量估计单调性。3个评价指标的取值区间均为[-1, 1],其值越大,代表图像质量评价算法的预测性能越好。3个指标的相关定义请参考文献[28]。

    由于所提出的算法模型需要一个训练过程来调整模型参数,因此将每个数据库随机分为不重叠的两部分进行模型训练和质量预测1000次,一部分为训练集(占数据库80%的图像),剩余图像作为测试集。最后测试的结果取1000次实验中的中位数。

    为了验证本文算法对GMIs质量的预测性能的优越性,进行对比实验:将本文算法对GMIs质量的预测性能与一些先进的NR-IQA方法的预测性能进行对比,其中包括:BRISQUE[11],DESIQUE[12],基于自由能熵的无参考方法(NR Free Energy-based Robust Metric, NFERM)[29],基于LCH颜色空间的NSS色域映射图像无参考质量评价(NR quality index for GMIs based on LCH color space NSS, GMLCH)[28],基于双阶结构退化和非局部统计的多重失真图像的盲质量评价方法(blind quality index for multiply distorted images using Bi-Order Structure degradation and nonlocal Statistics, BOSS)[21],基于色调映射图像的梯度和色度统计的盲视觉质量评价(blind visual quality evaluation method for tone-mapped images by using gradient and chromatic statistics, VQGC)[30],BLGS[13],基于不变性描述符的算法(Invariance DEscriptor-based Algorithm, IDEAL)[18],GMNSS[15]和GMCSD [16]。其中,IDEAL、GMLCH、BLGS、GMNSS、GMCSD和VQGC六种算法在提取质量感知特征时考虑了颜色信息,而其余算法均是从灰度域提取特征没有考虑颜色失真。最终实验结果如表 1所示,表 1中呈现了以上所有算法以及本文算法对3个数据库图像的质量预测性能,其中3个指标中最优值通过加粗显示,次优值通过斜体标注。本文算法在表 1中用Proposed表示。

    表  1  三个数据库中算法性能比较
    Table  1.  Comparative evaluation on the three gamut mapping databases
    Method BS database IG database LC database
    PLCC SRCC KRCC PLCC SRCC KRCC PLCC SRCC KRCC
    BRISQUE 0.7633 0.5678 0.4126 0.5153 0.4654 0.3345 0.5026 0.5274 0.3802
    DESIQUE 0.8213 0.5941 0.4354 0.5987 0.5666 0.4211 0.5692 0.5973 0.4429
    NFERM 0.7441 0.5566 0.4072 0.4399 0.4510 0.2968 0.4934 0.4985 0.3617
    IDEAL 0.7859 0.6652 0.4994 0.6195 0.6139 0.4550 0.5780 0.5989 0.4417
    GMNSS 0.8170 0.6774 0.5100 0.7369 0.7086 0.5526 0.6256 0.6154 0.4630
    GMCSD 0.8374 0.7028 0.5402 0.7508 0.7273 0.5633 0.6778 0.6848 0.5152
    BLGS 0.7865 0.7275 0.5116 0.7464 0.7165 0.5147 0.7573 0.7074 0.5033
    GMLCH 0.8385 0.7069 0.5337 0.6302 0.6039 0.4523 0.6565 0.6498 0.4876
    BOSS 0.4830 0.4826 0.3531 0.4573 0.4318 0.3167 0.7035 0.6021 0.4490
    VQGC 0.8315 0.7016 0.5334 0.5732 0.5442 0.4057 0.6298 0.6332 0.4675
    Proposed 0.8816 0.7394 0.5735 0.7944 0.7586 0.5929 0.7252 0.7360 0.5655
    下载: 导出CSV 
    | 显示表格

    表 1中的数据观察可知:除了LC数据库中的PLCC值以外,本文算法的所有性能指标取值均是最高的,这说明本文算法无论在预测单调性还是预测准确性方面均是最优的。同时从表中数据可知在提取特征时考虑了颜色信息的算法的预测性能普遍比没有考虑颜色信息的算法的预测性能好。这说明GMIs质量评价中颜色信息是必不可少的。

    过去的大多数算法皆是从零阶颜色信息中提取质量感知特征,本文不仅考虑了零阶颜色信息还考虑了一阶颜色信息。为了验证一阶颜色信息对于色域映射图像质量预测的必要性进行了以下实验:单独将零阶颜色特征与一阶颜色特征分别进行模型训练和质量预测,并对比预测结果。实验结果如图 6所示,此处采用PLCC作为性能评价指标。

    图  6  两阶颜色信息对算法性能的贡献
    Figure  6.  Contribution of two-order color information to algorithm performance

    图 6中“first-order”和“zeroth-order”分别表示仅采用一阶颜色特征和零阶颜色特征进行模型训练得到的预测性能,“Proposed”表示本文算法的预测性能。从图中可以观察到:虽然单独的一阶颜色特征对图像的预测性能十分有限,但是结合零阶颜色特征却能达到最佳的预测效果。这证明一阶颜色特征在色域映射图像质量预测中是必要且有效的。

    本文算法分别在一阶颜色分量和零阶颜色分量上提取了NSS统计特征和非NSS统计特征。为了验证两类特征的必要性,进行了消融实验:单独将两类特征进行模型训练和质量预测并对比实验结果。实验结果如表 2所示。

    表  2  NSS特征与非NSS统计特征的性能对比
    Table  2.  Performance comparison of NSS features with NON-NSS statistical features
    BS IG LC
    PLCC SRCC KRCC PCC SRCC KRCC PCC SRCC KRCC
    NSS 0.8098 0.6799 0.5171 0.5891 0.5721 0.4175 0.6550 0.6634 0.4928
    NO NSS 0.7038 0.4725 0.3394 0.5645 0.5241 0.3912 0.4713 0.3620 0.2677
    Proposed 0.8816 0.7394 0.5735 0.7944 0.7586 0.5929 0.7252 0.7360 0.5655
    下载: 导出CSV 
    | 显示表格

    表 2中“NSS”代表在一阶与零阶颜色分量上提取的自然场景统计特征,“NON-NSS”代表在一阶和零阶颜色分量上提取的非自然场景统计特征,“Proposed”表示本文算法。从表 2可知NSS特征与非NSS场景统计特征在本文算法中皆是必须的,只有两类特征结合才能达到最佳的预测效果。

    在本文算法的零阶颜色信息中提出使用R、G、B三个颜色分量既能表示图像的颜色失真也能表现图像的灰度失真的设想。为了验证该设想,我们进行了以下实验:在R与G分量上提取T3T4组成特征向量,在R与B分量上提取T3T4组成特征向量,在B与G分量上提取T3T4组成特征向量,在R、G、B三个分量上提取T3T4组成特征向量(即零阶颜色特征);将这4种情况下的特征向量分别进行模型训练与质量预测,预测性能对比如图 7所示。此处采用PLCC作为性能评价指标。

    图  7  R、G、B三个零阶颜色分量的性能贡献
    Figure  7.  Performance contribution of R, G and B zero-order color components

    图 7中可以清晰地获知在零阶颜色信息中的3个颜色分量上,任意取两个颜色分量皆没有3个颜色分量提取的特征预测性能高。每个颜色分量上提取的两类特征皆是必不可少的,只有3个颜色分量的结合才能达到最佳的预测性能。同时还单独在图像的灰度域提取了T3T4两类特征,并进行模型训练与质量预测。从实验结果可知,单独在灰度域提取特征进行训练得到的模型的预测性能是最低的,这说明色域映射图像中的颜色失真十分严重。而3个颜色分量的结合能够达到最佳的预测性能,这证明了R、G、B三个颜色分量的结合不仅能够表达图像的灰度失真,也能表达图像的颜色失真设想的合理性与有效性。

    在本文中,提出了一个基于双阶颜色表示的色域映射图像无参考质量评价方法。在该方法中不仅使用R、G、B三个颜色分量来表征结构失真和颜色失真,还在颜色空间导数即一阶颜色分量中提取相关的质量感知特征来补充表征颜色信息的损失。因为一阶颜色分量OA与SA是角度值,由于角度值具有循环特性,因此在计算其相邻像素差值时采用了其周期性的特质。最后通过大量实验证明本文算法在预测色域映射图像质量的优越性,以及一阶颜色分量的必要性。

  • 图  1   海上风机

    Figure  1.   An Offshore wind turbine

    图  2   无人机红外图像采集及叶片拼接系统流程

    Figure  2.   UAV infrared image acquisition and blade Mosaic system process

    图  3   不同迭代次数演化结果

    Figure  3.   Evolutionary results for different times of iteration

    图  4   CV模型下目标分割

    Figure  4.   Target segmentation under CV model

    图  5   连通域标识方式

    Figure  5.   Connected domain identifier

    图  6   连通域标记

    Figure  6.   Connected domain label

    图  7   基于连通域估计滤波结果

    Figure  7.   The filtering results are estimated based on the connected domain

    图  8   形态学处理后效果

    Figure  8.   Effect after morphological treatment

    图  9   背景去除后特征点显示结果

    Figure  9.   Feature point display after background removal

    图  10   RANSAC算法筛选结果

    Figure  10.   RANSAC algorithm matching

    图  11   形态学掩膜约束后匹配结果

    Figure  11.   Morphological mask constraints

    图  12   拼接使用的部分样本数据

    Figure  12.   The sample data used for stitching

    图  13   图片拼接效果对比

    Figure  13.   Comparison of image stitching effects

    图  14   风力发电机叶片图像拼接整体效果

    Figure  14.   Overall effect of wind turbine blade picture stitching

    表  1   4种算法RMSE值

    Table  1   RMSE values of four algorithms

    Group Ostu
    -Harris
    IT
    -Harris
    CV
    -Harris
    Ours
    1 230.054 239.641 112.521 27.376
    2 179.600 180.267 129.603 11.117
    3 123.521 117.466 115.621 25.009
    4 68.046 87.921 87.761 66.747
    5 39.196 34.262 35.067 30.415
    6 17.463 25.906 18.391 16.821
    下载: 导出CSV

    表  2   4种算法时间消耗

    Table  2   Time consumption of the 4 algorithms  s

    Group Ostu-Harris IT-Harris CV-Harris Ours
    1 3.661 2.896 10.337 10.503
    2 3.145 2.899 10.365 10.178
    3 3.025 2.779 10.639 10.638
    4 3.002 3.02 10.437 10.381
    5 3.269 3.051 10.635 11.016
    6 3.064 2.956 10.521 10.594
    Average 3.194 2.934 10.489 10.551
    下载: 导出CSV
  • [1] 李禹桥. 基于旋翼无人机的风电叶片自主巡检系统研究[D]. 徐州: 中国矿业大学, 2021.

    LI Yuqiao. Research on Wind Turbine Blade Autonomous Inspection System based on Rotorcraft UAV[D]. Xuzhou: China University of Mining and Technology, 2021.

    [2] 张明辉. 风力发电机故障检修与处理[J]. 科技创新导报, 2019, 16(10): 132-133. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXDB201910075.htm

    ZHANG Minghui. Wind turbine fault repair and treatment[J]. Science and Technology Innovation Herald, 2019, 16(10): 132-133. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXDB201910075.htm

    [3] 王蔚, 刘丹. 我国风电市场: 前景一路看好[N]. 经济参考报, [2006-06-15].

    WANG Wei, LIU Dan. China's wind power market: prospects all the way bright[N]. Economic Information Daily, [2006-06-15].

    [4] 王浩, 闫号, 叶海瑞, 等. 基于无人机的光伏电站智能巡检[J]. 红外技术, 2022, 44(5): 537-542. http://hwjs.nvir.cn/article/id/9b100b0a-485a-47dd-bc1a-357a9bc0091f

    WANG Hao, YAN Hao, YE Hairui, et al. Intelligent patrol inspection of photovoltaic power station based on UAVs[J]. Infrared Technology, 2022, 44(5): 537-542. http://hwjs.nvir.cn/article/id/9b100b0a-485a-47dd-bc1a-357a9bc0091f

    [5] 宫妍, 位冲冲. 图像拼接关键技术研究综述[J]. 电脑知识与技术, 2021, 17(30): 106-108. Doi: 10.14004/j.cnki.ckt.2021.2895.

    GONG Yan, WEI Chongchong. Review on key techniques of image stitching[J]. Computer Knowledge and Technology, 2021, 17(30): 106-108. Doi: 10.14004/j.cnki.ckt.2021.2895.

    [6]

    CUI Z, QI W, LIU Y. A fast image template matching algo-rithm based on normalized cross correlation[J]. Journal of Physics Conference Series, 2020, 1693: 012163. DOI: 10.1088/1742-6596/1693/1/012163

    [7] 马宝琰, 汤磊, 赵晶, 等. 风电叶片图像直线特征检测与拼接方法[J]. 哈尔滨理工大学学报, 2020, 25(5): 83-92. Doi: 10.15938/j.jhust.2020.05.012.

    MA Baoyan, TANG Lei, ZHAO Jing, et al. Straight line features detection and mosaic of wind power blades image[J]. Journal of Harbin University of Science and Technology, 2020, 25(5): 83-92. Doi: 10.15938/j.jhust.2020.05.012.

    [8] 卢泉, 杨振华, 黄粒峰. 改进最佳缝合线的红外图像拼接方法[J]. 红外技术, 2022, 44(6): 580-586. http://hwjs.nvir.cn/article/id/ff102dc9-5b92-41f9-8a8f-813d8d5f0c8b

    LU Quan, YANG Zhenhua, HUANG Lifeng. Infrared image mosaic method for improving the best seam-line[J]. Infrared Technology, 2022, 44(6): 580-586. http://hwjs.nvir.cn/article/id/ff102dc9-5b92-41f9-8a8f-813d8d5f0c8b

    [9] 傅子秋, 张晓龙, 余成, 等. 多场景下基于快速相机标定的柱面图像拼接方法[J]. 光电工程, 2020, 47(4): 74-86. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202004008.htm

    FU Ziqiu, ZHANG Xiaolong, YU Cheng, et al. Cylindrical image mosaic method based on fast camera calibration in multi-scene[J]. Opto-Electronic Engineering, 2020, 47(4): 74-86. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202004008.htm

    [10] 何赟泽, 张帆, 刘昊, 等. 风机叶片无人机红外热图像拼接方法[J]. 电子测量与仪器学报, 2022, 36(7): 44-53. Doi: 10.13382/j.jemi.B2105058.

    HE Yunze, ZHANG Fan, LIU Hao, et al. Infrared image stitch method of wind turbine blade based on UAV[J]. Journal of Electronic Measurement and Instrument, 2022, 36(7): 44-53. Doi: 10.13382/j.jemi.B2105058.

    [11] 方喜波. 光电侦察吊舱对海广域搜索方法[J]. 红外技术, 2021, 43(11): 1055-1060. http://hwjs.nvir.cn/article/id/9db773d6-e53b-4486-a8ca-f32834bc9f13

    FANG Xibo. Searching method of the wide area of optical recon pod for sea targets[J]. Infrared Technology, 2021, 43(11): 1055-1060. http://hwjs.nvir.cn/article/id/9db773d6-e53b-4486-a8ca-f32834bc9f13

    [12]

    Osher S, Sethian J A. Fronts propagating with curvature-dependent speed: algorithms based on Hamilton-Jacobi formulations[J]. Journal of Computational Physics, 1988, 79(1): 12-49.

    [13]

    Ghaili A M, Mashohor S, Ramli A R. Vertical-edge-based car-license-plate detection method[J]. IEEE Transactions on Vehicular Technology, 2013, 62(1): 26-38.

    [14] 张见双, 张红民, 罗永涛, 等. 一种改进的Harris角点检测的图像配准方法[J]. 激光与红外, 2017, 47(2): 230-233. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201702021.htm

    ZHANG Jianshuang, ZHANG Hongmin, LUO Yongtao, et al. Image registration method based on improved Harris corner detection algorithm[J]. Laser & Infrared, 2017, 47(2): 230-233. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201702021.htm

图(14)  /  表(2)
计量
  • 文章访问数:  159
  • HTML全文浏览量:  47
  • PDF下载量:  36
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-09-25
  • 修回日期:  2022-12-12
  • 刊出日期:  2023-11-19

目录

/

返回文章
返回