基于深度学习的偏振图像融合方法

孙红雨, 李军, 袁博, 周宇超

孙红雨, 李军, 袁博, 周宇超. 基于深度学习的偏振图像融合方法[J]. 红外技术, 2025, 47(2): 193-200.
引用本文: 孙红雨, 李军, 袁博, 周宇超. 基于深度学习的偏振图像融合方法[J]. 红外技术, 2025, 47(2): 193-200.
SUN Hongyu, LI Jun, YUAN Bo, ZHOU Yuchao. Deep Learning-Based Polarization Image Fusion Method[J]. Infrared Technology , 2025, 47(2): 193-200.
Citation: SUN Hongyu, LI Jun, YUAN Bo, ZHOU Yuchao. Deep Learning-Based Polarization Image Fusion Method[J]. Infrared Technology , 2025, 47(2): 193-200.

基于深度学习的偏振图像融合方法

基金项目: 

山东省自然科学基金 ZR2024QF085

详细信息
    作者简介:

    孙红雨(1978-),博士,教授。研究方向:偏振图像信息处理。E-mail:skdshy@sdust.edu.cn

  • 中图分类号: TP391.41

Deep Learning-Based Polarization Image Fusion Method

  • 摘要:

    为改善阴暗复杂环境下图像质量,综合利用偏振图像的全局信息和纹理细节,提出多尺度特征提取与双重融合策略网络(scale feature extraction and dual fusion strategy, SFE-DFS-Nest),用于强度图像与偏振度图像的融合。首先,构建编码器,实现源图像多尺度特征提取。其次,浅层特征通过轻量化Transformer融合,深层特征通过残差网络融合。最后,构建解码器,用于融合特征重建。与现有图像融合网络相比,该网络针对不同尺度特征采用不同融合策略。结果表明,经过该网络融合后的阴暗复杂环境图像,主观视觉上图像观察舒适性较佳。并且通过选取方法的对比,融合后的图像在客观评价指标上,皆优于选取的方法。

    Abstract:

    To improve image quality in complex and dim environments, a network that leverages both the global information and textural details of polarized images through a strategy of multi-scale feature extraction and dual fusion, known as the Scale Feature Extraction and Dual Fusion Strategy Network (SFE-DFS-Nest), is proposed. The proposed network fuses polarized intensity images with polarization degree images. Initially, an encoder is constructed to extract multi-scale features from source images. Then, shallow features are fused using a lightweight Transformer, while deep features are integrated through a residual network. Finally, a decoder is built to reconstruct the fused features. Compared with existing image fusion networks, this network employs distinct fusion strategies for features at different scales. The experimental results show that images from dark and complex environments exhibited improved subjective visual comfort after fusion through this network. Furthermore, the fused images obtained using the proposed method outperformed those obtained using the compared methods in terms of objective evaluation metrics.

  • 偏振成像是一种利用光的偏振特性来获取目标信息的光学成像技术。通过多幅不同角度的偏振图像,可以通过求解Stokes矢量得到偏振特性信息,包括偏振度图像和强度图像。偏振度图像描述了光在每个位置上的振动方向,因此,在现实应用中偏振度图像可以用于识别不同材料和性质的物体,提供更多的纹理细节信息。强度图像展示了场景中不同方向上的光强分布,它可以提供整体信息。将强度图像与偏振度图像进行融合,可以提高图片的对比度与清晰度,从全局上把握纹理细节信息。经过图像融合技术处理后的图像,在复杂阴暗环境下能够更迅速且精准地识别目标,对于户外监控、遥感图像以及医学影像等领域具有实际意义[1]

    图像融合的目标是从多个输入图像中提取有用信息,以生成一个信息更全面、质量更高的输出图像,传统方法在处理图像时,往往依赖于信号处理技术,近几年来,随着深度学习的发展,基于神经网络的方法也越来越多地被应用于图像融合任务中[2]。早在2000年,Merino等人在草地背景下将地雷作为探测目标,采用HSV空间模型将红外图像、偏振度图像和偏振角图像相互融合,对地雷和草地背景的对比度进行量化。结果表明,融合得到的图像对比度显著增强[3]。Sappa等人提出了一种基于多尺度分解的偏振图像融合方法,该方法利用小波分解阶段的不同设置,形成最终的图像表示。这种方法能够有效提高图像的清晰度和质量[4]。李蕾等人在研究偏振图像融合时,采用传统方法,基于拉普拉斯金字塔算法,借助权重融合系数,有效强化了偏振图像的细节特征[5]

    虽然传统的图像融合技术已经能够提供满意的结果,可是它们通常依赖于手工设定的融合规则。鉴于此,深度学习提供的图像融合手段为这一挑战提供了新的解决方案[6]。李辉提出了RFN-Nest用于可见光与红外图像融合,该网络提取多尺度特征,采用残差网络融合策略,取得良好的融合效果[7]。张俊超团队设计了一种无监督端对端的深度学习框架,针对强度图像与偏振度图像的融合挑战,该网络采用一种多尺度加权的结构相似性指数作为其损失函数,从而在融合过程中更全面地保留了原始图像的关键特征[8]。以上所提到的方法都展现出卓越的融合效果,但是对于提取到的多尺度特征,使用了相同的融合策略,在阴暗复杂环境下,融合效果一般。

    为了凸显复杂阴暗环境下的细节信息,本文提出了SFE-DFS-Nest。基于RFN-Nest的自动编解码器网络进行了改进。新网络模型不仅能够有效捕捉源图像的纹理细节和全局信息,而且在特征重建方面也取得了显著的效果。针对不同尺度的特征,本文分别引用了残差融合和轻量化Transformer融合网络,以更好地捕捉图像之间的关联性。此外,在融合策略的训练过程中,本文使用了综合均方误差,梯度损失与对比损失的损失函数进行约束训练,进一步提高模型的性能。

    采集到不同角度的偏振图像会由于环境等客观因素存在一定程度的位置偏移问题。在进行计算偏振度与强度图像之前需要进行对源图像配准工作。

    本文采用稀疏图像融合与修复(sparse image fusion and inpainting,SIFI)算法进行图像配准,通常SIFI算法包括5个步骤[9]

    ① 生成偏振图像的高斯拉普拉斯(Laplacian of Gaussian, LoG)尺度空间;

    ② 检测偏振图像高斯差分(difference of Gaussian, DoG)尺度空间极值点;

    ③ 精确定位偏振图像的极值点;

    ④ 为每个偏振信息关键点指定方向参数;

    ⑤ 偏振特征关键点描述子的生成。

    本文收集了多组偏振图像,其偏振角度分别为0°、45°、90°与135°。这些图像的偏振态是通过Stokes矢量来表达的。Stokes矢量可以用四行一列的列矩阵来表示,四行中的四个参数均为光强的时间平均值,具有不同的含义,用矢量(S0, S1, S2, S3)T表示。其中S0是总强度,S1S2是不同坐标下的线偏振分量,S3表示圆偏振分量。

    具体有两种表达方法,第一种:

    $$ {\boldsymbol{S}} = \left[ {\begin{array}{*{20}{c}} {{{\boldsymbol{S}}_0}} \\ {{{\boldsymbol{S}}_1}} \\ {{{\boldsymbol{S}}_2}} \\ {{{\boldsymbol{S}}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {E_x^2 + E_y^2} \\ {E_x^2 - E_y^2} \\ {2{E_x}{E_y}\cos \delta } \\ {2{E_x}{E_y}\sin \delta } \end{array}} \right] $$ (1)

    式中:ExEy分别表示光波的xy分量;δ为两分量之间的相位差。

    第二种:

    $$ {\boldsymbol{S}} = \left[ {\begin{array}{*{20}{c}} {{{\boldsymbol{S}}_0}} \\ {{{\boldsymbol{S}}_1}} \\ {{{\boldsymbol{S}}_2}} \\ {{{\boldsymbol{S}}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{I_0} + {I_{90}}} \\ {{I_0} - {I_{90}}} \\ {{I_{45}} - {I_{135}}} \\ {{I_{{\rm{RCP}}}} - {I_{{\rm{LCP}}}}} \end{array}} \right] $$ (2)

    式中:I0I45I90I135分别表示在0°、45°、90°、135°方向上的偏振光强;IRCP是右旋圆偏振光强;ILCP是左旋圆偏振光强。

    在现实应用中,圆偏振通常为0,因此S3=0[10]。所以Stokes矢量常表示为:

    $$ {{\boldsymbol{S}}_0} = \frac{{{I_0} + {I_{45}} + {I_{90}} + {I_{135}}}}{2} $$ (3)
    $$ \boldsymbol{S}_1=I_0-I_{90} $$ (4)
    $$ \boldsymbol{S}_2=I_{45}-I_{135} $$ (5)

    线偏振度是一种表示偏振光占总光强的比例的量[11],其表达式如下:

    $$ {\rm{DOLP}} = \frac{{\sqrt {{{\boldsymbol{S}}_1}^2 + {{\boldsymbol{S}}_2}^2} }}{{{{\boldsymbol{S}}_0}}} $$ (6)

    式中:S0为强度图像;DOLP为偏振度图像。

    本文使用的偏振图像融合网络模型如图 1所示,它来源于端到端融合框架(an end-end residual fusion network, RFN-Nest),其结构如图 1所展示,主要由3部分构成:编码器网络、特征融合网络以及解码器网络。本文分别对3部分进行改进,编码器如图 1左侧所示,本文对卷积核的大小和滤波器数量做了改进,编码器网络旨在提取源图像的多尺度特征。特征融合网络如图 1中间所示,本文引入了轻量化Transformer网络,使用双重融合策略针对不同尺度的特征进行融合。解码器网络如图 1右侧所示,本文设计新的密集块,更好地帮助解码器网络重建融合后的特征。

    图  1  多尺度特征提取与双重融合策略图像融合网络
    Figure  1.  Multi-scale feature extraction and dual fusion strategy image fusion network

    图 1左侧所示的编码器中,详细展示了源图像特征提取的过程。编码过程始于输入图像,首先经过一个1×1的卷积操作,有助于网络更全面地理解和处理输入图像的信息。随后,图像通过一系列密集块,每个密集块采用不同的卷积核和滤波器数量,以捕捉图像中的多尺度信息[12]。在每个密集块之后,引入最大池化操作,这不仅有助于减小特征图的空间尺寸,还有助于提取深度特征。从整体结构来看,编码器的浅层特征保留了更多细节信息,而更深层的特征则传达了更高层次的语义信息。这一编码过程通过层层堆叠和变换,使得网络能够逐步抽取和学习输入图像的特征表示。

    解码器网络如图 1右侧所示,通过多层次的解码过程逐步生成融合图像。解码器采用多个密集连接块(DB模块)和上采样层,以逐渐细化的方式从融合网络获取的特征中重建图像。每个DB模块由两层卷积组成,卷积核大小分别为1和3,并在每层卷积后应用ReLU激活函数。此外,DB块之间还添加了密集连接,允许深层结构向浅层结构传递监督信息,有助于更好地学习特征表示。上采样操作用于增加特征图的尺寸,提高分辨率[13]。这一过程有助于保留和细化融合图像的细节,从而提高生成图像的质量。

    轻量化Transformer网络结构如图 2所示。编码器网络能够提取多尺度特征,对于浅层次的特征,这些特征被视为纹理细节特征,在本文中采用轻量化Transformer进行有效的特征融合[14]。在前向传播的过程中,本文首先将提取到的浅层次偏振度图像与强度图像的特征进行相加。在模型中使用的归一化操作有助于提升模型在训练过程中的稳定性。此外,该模块应用了注意力机制,以捕获融合信息中的相关细节特征。为了进一步细化表示,采用了多层感知机(MLP)。最终,经过轻量化Transformer网络融合的特征被成功输出,为解码任务提供了更为全面和精细的融合信息表示。

    图  2  轻量化Transformer网络
    Figure  2.  Lightweight transformer network

    该网络的注意力机制部分如图 3所示,它通过卷积层对输入进行变换,生成注意力机制的查询(q)、键(k)和值(v)。在归一化后,查询和键经过矩阵运算和缩放参数计算注意力分布矩阵,然后通过softmax进行标准化。利用注意力权重对值进行加权求和,得到经过注意力机制调整的输出。最后,通过卷积层调整输出的维度和形状。这一注意力机制的设计旨在使网络能够集中关注输入中的关键细节信息。

    图  3  注意力机制
    Figure  3.  Attention mechanism

    Mlp模块的结构如图 4所示,在本文的前向网络中,采用两个深度可分离卷积构成的小分支,分别为1×1和3×3的卷积核。其中一支使用Gelu激活函数,两支分支产生的特征图进行逐点相乘。这种设计旨在引入非线性交互,提升模型对输入特征的表达能力。

    图  4  Mlp模块
    Figure  4.  Mlp module

    对于深层次提取的特征,这些特征包含着丰富的语义信息。在本文的设计中,选择采用残差网络进行特征融合,该网络模型如图 5所示。在前向传播过程中,该模块通过两条路径进行特征融合处理。首先,一条路径是将两个输入张量在通道维度上连接,随后先后经过卷积和深度可分离卷积操作。同时,另一条路径是分别对输入张量进行卷积操作,然后在通道维度上拼接,随后通过三个深度可分离卷积块。最后,将两条路径的输出相加,得到最终的融合特征输出。该模块通过巧妙的残差网络实现了有效地特征融合。

    图  5  残差网络
    Figure  5.  Residual network

    本文采用与RFN-Nest相同的两阶段训练方法。在第一阶段,本文去除了融合策略模块,直接将编码器提取到的特征传递到解码器进行特征重建。该阶段的训练旨在提升编码器的特征提取能力以及解码器的解码能力,进而增强生成图像的能力。其中,第一阶段用到的损失函数Lauto如下:

    $$ L_{\mathrm{auto}}=L_{\mathrm{pixel}}+a L_{\mathrm{SSIM}} $$ (7)

    式中:LpixelLSSIM表示输入图像(Input)和输出图像(Output)之间的像素损失和结构相似性(SSIM)损失。a表示像素损失与结构相似性损失之间的平衡参数像素损失的计算方法如下:

    $$ {L_{{\rm{pixel}}}} = \left\| {{\rm{Output}} - {\rm{Input}}} \right\|{}_{\rm{F}}^2 $$ (8)

    结构相似性损失的计算方法如下[15]

    $$ L_{\mathrm{SSIM}}=1-\mathrm{SSIM}(\text { Output, Input }) $$ (9)
    $$ {\rm{SSIM}}\left( {x, y} \right) = \frac{{\left( {2{\mu _x}{\mu _y} + {c_1}} \right)\left( {2{\sigma _{xy}} + {c_2}} \right)}}{{\left( {\mu _x^2 + \mu _y^2 + {c_1}} \right)\left( {\sigma _x^2 + \sigma _y^2 + {c_2}} \right)}} $$ (10)

    式中:xy表示待计算的两张图像;μxμy分别是图像x和图像y中图像块的均值;σxy是图像x与图像y的协方差;σx2σy2分别是图像x与图像y中图像块的方差;c1c2是为避免除0错误的常数。

    第二阶段主要是针对融合策略模块。本文设计损失函数的目标是减小融合后图像噪声,并凸显复杂环境下的细节信息。第二阶段的损失计算如下:

    $$ \begin{array}{l} {\rm{TotalLoss}} =W_{\text {MSE }} \cdot \operatorname{MSELoss}+W_{\text {Gradient }} \cdot {\rm{GradientLoss}} +\\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\; W_{\text {Contrast }} \cdot {\rm{ContrastLoss}} \end{array} $$ (11)

    式中包括强度图像与融合图像的均方误差损失(MSELoss),强度图像与融合图像的梯度误差损失(GradientLoss)以及偏振度图像与融合图像的对比度损失(ContrastLoss)。

    通过最小化均方误差,模型会更加关注生成图像与强度图像在像素级别的准确匹配,有助于融合后的图像在整体上保留源图像的细节。同时,该损失函数对异常值(噪声)会非常明显,有助于减小生成图像的噪声[16]。其计算方法如下:

    $$ {\rm{MSELoss}} = \frac{1}{N}\mathop \sum \limits_{i = 1}^N {\left( {{I_i} - {R_i}} \right)^2} $$ (12)

    式中:N代表像素总数;I是强度图像的像素值;R是融合后图像的像素值。

    通过梯度损失可以衡量重建图像的梯度与强度图像的梯度之间的差异。通过最小化梯度损失,可以促进融合后图像的边缘更加清晰[17]。其计算方法如下:

    $$ {\rm{GradientLoss}} = \frac{1}{N}\mathop \sum \limits_{i = 1}^N \left( {{{\left( {{I_{i, x}} - {R_{i, x}}} \right)}^2} + {{\left( {{I_{i, y}} - {R_{i, y}}} \right)}^2}} \right) $$ (13)

    Ii, xIi, y是强度图像的第i个像素的水平和垂直梯度。Ri, xRi, y是融合后图像的第i个像素的水平和垂直梯度。

    对比度损失的定义通常基于交叉熵的形式,以确保生成图像与偏振度图像相似。对比度损失函数有助于提高图像中细节的可见性。并且通过强调对比度,可以使生成图像具有更高的清晰度和对比度[18]。其计算方法如下:

    $$ {\rm{ContrastLoss}} = - \frac{1}{N}\mathop \sum \limits_{i = 1}^N \left( {Q \cdot {\rm{log}}\left( {{R_i}} \right) + \left( {1 - {Q_i}} \right){\rm{log}}\left( {1 - {R_i}} \right)} \right) $$ (14)

    式中:Q代表偏振度图像的像素值;R是融合后图像的像素值。

    为了验证上述方法,本文采用Python对强度图像与偏振度图像进行融合处理。数据使用相机结合4个偏振角度的偏振片拍摄所得。

    对图像分别进行主成分分析法(principal component analysis, PCA)、脉冲耦合神经网络(pulse-coupled neural network, PCNN)、RFN-Nest与本文所描述的4种融合算法进行融合处理,融合后的图像经过主观与客观评价指标的综合评估。主观评价考虑人眼对图像质量的感知,而客观评价通过计算各种图像质量度量指标来提供量化的结果。

    在对比融合图像时,为了得到更客观、清晰、具有说服力的结果。本文采用平均梯度,图像信息熵,空间频率和标准差4个指标定量的对融合结果进行评估[19]

    1)平均梯度

    平均梯度是计算设计图像中像素值的梯度变化。平均梯度越大,表示图像中的颜色变化越剧烈,图像质量越高。其计算公式如下:

    $$ AG = \frac{1}{N}\mathop \sum \limits_{i = 1}^N \sqrt {{{\left( {\frac{{\partial I}}{{\partial x}}} \right)}^2} + {{\left( {\frac{{\partial I}}{{\partial y}}} \right)}^2}} $$ (15)

    式中:I表示给定像素处的图像强度;xy分别表示水平、垂直方向。

    2)信息熵

    信息熵是一种衡量图像信息内容复杂性的指标,信息熵越高,图像包含的信息越复杂。其计算公式如下:

    $$ {\rm{EN}} = - \mathop \sum \limits_{i = 1}^N {Z_i}{\rm{lg}}{z_i} $$ (16)

    式中:Zi表示图像的灰度值;zi表示相应灰度的概率大小。

    3)空间频率

    空间频率是用来衡量图像中变化率的指标,通常用来描述图像中纹理和细节程度。空间频率越大,表示纹理细节信息越丰富。其计算公式如下:

    $$ F\left( {u, v} \right) = \iint {f\left( {x, y} \right) \cdot {{\rm{e}}^{ - {\rm{j}}2{\rm{ \mathsf{ π}}} \left( {ux + vy} \right)}}{\rm{d}}x{\rm{d}}y} $$ (17)
    $$ A\left( {U, V} \right) = \frac{1}{{HW}}\sqrt {Re{{\left( {F\left( {u, v} \right)} \right)}^2} + Im{{\left( {F\left( {u, v} \right)} \right)}^2}} $$ (18)

    式中:f(x, y)是图像空间域的像素值;F(u, v)是频域中的复数表示;HW是图像的尺寸。

    4)标准差

    标准差是一种衡量数据集合中数值分散程度的统计量,通常用来评估图像的对比度和像素值的变化程度。标准差越大,表示图像中的像素值分布越散,图像对比度越高。其计算公式如下:

    $$ {\text{SD}} = \sqrt {\frac{1}{{HW}}\mathop \sum \limits_{i = 1}^H \mathop \sum \limits_{j = 1}^W {{\left[ {H\left( {i, j} \right) - \bar H} \right]}^2}} $$ (19)

    式中:H(i, j)表示单像素灰度值;$\bar H$表示灰度平均值;

    采集到的4个角度偏振图像为阴暗室外环境如图 67所示。

    图  6  以树为主要背景的四角度图像
    Figure  6.  Four-angle images with trees as the main background
    图  7  以楼为主要背景的四角度图像
    Figure  7.  Four-angle images with buildings as the background

    经过Stokes矢量公式求得的强度图像与偏振度图像如图 89所示。

    图  8  以树为主要背景的偏振度与强度图像
    Figure  8.  Degree of polarization and intensity images with trees as the main background
    图  9  以楼为主要背景的偏振度与强度图像
    Figure  9.  Degree of polarization and intensity images with buildings as the main background

    分别对强度图像与偏振度图像进行PCA、PCNN、RFN-Nest与本文所描述的四种融合算法融合结果如图 1011所示。

    图  10  以树为主要背景的不同融合方法融合后图像
    Figure  10.  Fusion images using different fusion methods with trees as the main background
    图  11  以楼为主要背景不同融合方法融合后图像
    Figure  11.  Fusion images using different fusion methods with buildings as the main background

    通过主观分析融合结果,发现在阴暗室外场景中,4幅不同的偏振图像在细节表现上并不明显,对比度较低。通过Stokes矢量求得的强度图像呈现出树木、建筑整体轮廓以及丰富的背景信息。偏振度图像展示了树叶的形状、建筑的分层和窗户等细节信息。经过融合后,四种融合方法的结果相比原始图像更加清晰。与PCA、PCNN以及RFN-Nest融合后的图像相比,本文算法融合得到的图像细节更为明显,可以更清晰地看到建筑与树木的分界线,树叶的形状也更加突出,呈现出更好的视觉效果

    表 1展示了四种不同方法融合效果的定量分析,表中列出的数据代表了40张融合图像平均结果的数值,最优数值加粗表示。通过数值比较,本文方法优于其他融合方法。其中,与RFN-Nest相比,本方法的客观评价指标信息熵、标准差、平均梯度和空间频率分别提高了5.08 %,34.26%,21.44%,15.97%。说明通过本文方法融合的图像,有着丰富的细节信息、均匀的像素分布以及较高的对比度,在阴暗环境下也能保留细节信息。

    表  1  输出结果的各项评价指标
    Table  1.  Evaluation metrics of the output results
    AG EN SF SD
    PCA 3.18 6.39 15.33 29.01
    PCNN 3.65 6.79 14.92 38.74
    RFN-Nest 4.43 6.88 22.98 41.59
    Ours 5.38 7.23 26.65 55.84
    下载: 导出CSV 
    | 显示表格

    针对复杂阴暗环境下图像细节不明显的问题,本文提出一种强度图像与偏振度图像基于深度学习融合的方法。有效地利用偏振图像的全局信息和纹理细节,融合后的图像能保留丰富的信息,图像的对比度高。该方法在实际应用中具有广泛价值,比如在安防监控领域,该方法能显著提升夜间或光线不足环境下的图像清晰度,确保能够准确获取关键信息,从而保障公共安全。该方法与RFN-Nest总体网络结构相似,但本文针对不同尺度的特征,采用不同的融合策略,并且使用不同的损失函数训练网络,通过实验表明本文所做出的改进更加切合本文要解决的问题。在今后的工作中,将对编码器网络进一步改进,确保有效地提取图像的全局信息和纹理细节。

  • 图  1   多尺度特征提取与双重融合策略图像融合网络

    Figure  1.   Multi-scale feature extraction and dual fusion strategy image fusion network

    图  2   轻量化Transformer网络

    Figure  2.   Lightweight transformer network

    图  3   注意力机制

    Figure  3.   Attention mechanism

    图  4   Mlp模块

    Figure  4.   Mlp module

    图  5   残差网络

    Figure  5.   Residual network

    图  6   以树为主要背景的四角度图像

    Figure  6.   Four-angle images with trees as the main background

    图  7   以楼为主要背景的四角度图像

    Figure  7.   Four-angle images with buildings as the background

    图  8   以树为主要背景的偏振度与强度图像

    Figure  8.   Degree of polarization and intensity images with trees as the main background

    图  9   以楼为主要背景的偏振度与强度图像

    Figure  9.   Degree of polarization and intensity images with buildings as the main background

    图  10   以树为主要背景的不同融合方法融合后图像

    Figure  10.   Fusion images using different fusion methods with trees as the main background

    图  11   以楼为主要背景不同融合方法融合后图像

    Figure  11.   Fusion images using different fusion methods with buildings as the main background

    表  1   输出结果的各项评价指标

    Table  1   Evaluation metrics of the output results

    AG EN SF SD
    PCA 3.18 6.39 15.33 29.01
    PCNN 3.65 6.79 14.92 38.74
    RFN-Nest 4.43 6.88 22.98 41.59
    Ours 5.38 7.23 26.65 55.84
    下载: 导出CSV
  • [1]

    CHEN W, YAN L, CHANDRASEKAR V. Optical polarization remote sensing[J]. International Journal of Remote Sensing, 2020, 41(3): 4849-4852.

    [2] 闫德利, 申冲, 王晨光, 等. 强度图像和偏振度图像融合网络的设计[J]. 光学精密工程, 2023, 31(8): 1256-1266.

    YAN Deli, SHEN Chong, WANG Chenguang, et al. Design of a fusion network for intensity and polarization degree images[J]. Optical Precision Engineering, 2023, 31(8): 1256-1266.

    [3] 孟建雯. 基于深度学习偏振图像融合的金属工业件检测[D]. 咸阳: 西北农林科技大学, 2023.

    MENG Jianwen. Detection of Metal Industrial Parts Based on Deep Learning Polarization Image Fusion[D]. Xianyang: Northwest A&F University, 2023.

    [4] 梁开阳. 基于多尺度变换和稀疏表示的遥感图像融合算法研究[D]. 银川: 北方民族大学, 2020.

    LIANG Kaiyang. Research on Remote Sensing Image Fusion Algorithm Based on Multi-scale Transformations and Sparse Representation[D]. Yinchuan: Northern University for Nationalities, 2020.

    [5] 李蕾, 郭天太, 潘孙强, 等. 基于Laplacian算法的水下偏振图像复原[J]. 电子技术应用, 2019, 45(9): 85-88.

    LI Lei, GUO Tiantai, PAN Sunqiang, et al. Underwater polarization image restoration based on the Laplacian algorithm[J]. Electronic Technology Application, 2019, 45(9): 85-88.

    [6]

    MA J Y, YU W, LIANG P W, et al. Fusion-GAN: a generative adversarial network for infrared and visible image fusion [J]. Information Fusion, 2019, 48(8): 11-26.

    [7] 李辉. 基于表示学习的图像融合算法研究与应用[D]. 无锡: 江南大学, 2022.

    LI Hui. Research and Application of Image Fusion Algorithms Based on Representation Learning[D]. Wuxi: Jiangnan University, 2022.

    [8]

    ZHANG J C, SHAO J B, CHEN J L, et al. PF-NET: an unsupervised deep network for polarization image fusion[J]. Optics Letters, 2020, 45(6): 1507-1510. DOI: 10.1364/OL.384189

    [9]

    Lowe D G. Object recognition from local scale-invariant features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision of IEEE, 1999, 36(2): 1150-1157.

    [10] 赵鹏翔. 基于偏振信息的多孔径水下成像技术研究[D]. 太原: 中北大学, 2021.

    ZHAO Pengxiang. Research on Multi-Aperture Underwater Imaging Technology Based on Polarization Information[D]. Taiyuan: North University of China, 2021.

    [11]

    WEI Y, HAN P, LIU F, et al. Enhancement of underwater vision by fully exploiting the polarization information from the Stokes vector[J]. Optics Express, 2021, 29(14): 22275-22287. DOI: 10.1364/OE.433072

    [12] 吕义付, 张乾, 徐艳. 基于BEDU-Net算法的皮肤病灶分割研究[J]. 智能计算机与应用, 2023, 13(8): 73-79, 87.

    LYU Yifu, ZHANG Qian, XU Yan. Research on skin Lesion segmentation based on BEDU-Net algorithm[J]. Intelligent Computer and Applications, 2023, 13(8): 73-79, 87.

    [13] 牛睿智, 潘斐扬, 刘志亮. 基于YOLO的鱼道过鱼粗粒度目标检测算法[J]. 长江信息通信, 2023, 36(12): 45-51.

    NIU Ruizhi, PAN Feiyang, LIU Zhiqiang. Fishway coarse-grained target detection algorithm based on YOLO[J]. Yangtze Information and Communication, 2023, 36(12): 45-51.

    [14] 张翔. 基于深度学习的人脸表情识别研究[D]. 兰州: 西北师范大学, 2023.

    ZHANG Xiang. Research on Facial Expression Recognition Based on Deep Learning[D]. Lanzhou: Northwest Normal University, 2023.

    [15] 陈霞晖. 基于生成式对抗网络的人脸年龄合成算法的研究[D]. 南京: 南京理工大学, 2023.

    CHEN Xiahui. Research on Facial Age Synthesis Algorithm Based on Generative Adversarial Networks[D]. Nanjing: Nanjing University of Science and Technology, 2023.

    [16] 杨彪, 江朝晖, 陈铎, 等. 基于客观参数的图像质量评估[J]. 计算机仿真, 2009, 26(5): 232-235.

    YANG Biao, JIANG Zhaohui, CHEN Duo, et al. Image quality assessment based on objective parameters[J]. Computer Simulation, 2009, 26(5): 232-235.

    [17] 黄丹丹. 基于深度学习的中文分词和关键词抽取模型研究[D]. 北京: 北京邮电大学, 2019.

    HUANG Dandan. Research on Chinese Word Segmentation and Keyword Extraction Models Based on Deep Learning[D]. Beijing: Beijing University of Posts and Telecommunications, 2019.

    [18] 陈中琴. 基于RDN-LTE与改进DINO的布匹瑕疵检测技术研究[D]. 上海: 东华大学, 2023.

    CHEN Zhongqin. Research on Fabric Defect Detection Technology Based on RDN-LTE and Improved DINO[D]. Shanghai: Donghua University, 2023.

    [19] 姜兆祯, 韩裕生, 任帅军, 等. 基于改进PCNN模型的偏振图像融合算法[J]. 舰船电子工程, 2021, 41(3): 33-36, 175.

    JIANG Zhaozhen, HAN Yusheng, REN Shuaiyun, et al. Polarization image fusion algorithm based on improved PCNN model[J]. Shipborne Electronic Engineering, 2021, 41(3): 33-36, 175.

图(11)  /  表(1)
计量
  • 文章访问数:  37
  • HTML全文浏览量:  4
  • PDF下载量:  24
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-03-12
  • 修回日期:  2024-04-07
  • 刊出日期:  2025-02-19

目录

/

返回文章
返回