Infrared and Visible Image Fusion Based on Latent Low-Rank Representation
-
摘要: 红外和可见光图像融合广泛应用于目标跟踪、检测和识别等领域。为了保留细节的同时增强对比度,本文提出一种基于潜在低秩表示的红外和可见光图像融合方法。潜在低秩分解将源图像分解为基层和显著层,其中基层包含主要内容和结构信息,显著层包含能量相对集中的局部区域。进一步利用比例金字塔分解得到低频和高频的基层子带,并针对不同层的特点设计对应的融合规则。利用稀疏表示表达低频基层较分散的能量,设计L1范数最大和稀疏系数最大规则,加权平均融合策略保留不同的显著特征;绝对值最大增强高频基层的对比度信息;而显著层则利用局部方差度量局部显著性,加权平均方式突出对比度较强的目标区域。在TNO数据集上的定性和定量实验分析表明方法具有良好的融合性能。基于低秩分解的方法能够增强红外和可见光融合图像中目标对比度的同时保留了丰富的细节信息。Abstract: Infrared and visible image fusion is widely used in target tracking, detection, and recognition. To preserve image details and enhance contrast, this study proposed an infrared and visible image fusion method based on latent low-rank representation. The latent low-rank representation was used to decompose the source images into base and significant layers, in which the base layers contained the main content and structure information, and the salient layers contained the local area with relatively concentrated energy. The ratio of low-pass pyramid was also adopted to decompose the base layer into low-frequency and high-frequency layers. The corresponding fusion rules were designed according to the characteristics of the different layers. A sparse representation was used to express the relatively dispersed energy of the low-frequency base, and the rules of the maximum L1 norm and maximum sparse coefficient were weighted averages to retain different significant features. The absolute value of the high-frequency part of the base layer was used to enhance the contrast. Local variance was used for the salient layer to measure significance, and the weighted average was used to highlight the target area with enhanced contrast. Experimental results on the TNO datasets show that the proposed method performed well in both qualitative and quantitative evaluations. The method based on low-rank decomposition can enhance the contrast of the targets and retain rich details in infrared and visible fusion images.
-
0. 引言
图像融合将来自不同传感器的图像整合得到包含更多有效信息的融合图像,其中红外和可见光图像融合被广泛使用在监控、军事以及人脸识别等领域[1]。红外图像由于依靠物体热辐射进行成像,可以在低光照、烟雾等恶劣情况下捕捉到目标,但分辨率通常较低,且成像会受环境温度等因素的影响。可见光图像在理想的情况下可以得到分辨率较高、细节丰富的高质量图像,但通常受到光照、天气、能见度等影响。利用红外和可见光间互补特性的图像融合,可以充分保留红外图像中显著的目标信息和可见光图像中的纹理细节等背景信息[2]。
图像融合依据处理层次可以大致分为像素级、特征级以及决策级3类[3],目前主流图像融合算法研究集中在像素级。文献[4]中基于方法论将像素级图像融合算法分为基于多尺度分解、稀疏表示、深度学习、显著性以及混合类型5类。
基于多尺度和稀疏表示的图像融合方法,通常包含分解、融合和重构3部分,不同之处在于多尺度方法一般是解析的固定函数变换,而稀疏表示的方法通过训练得到字典来表达图像中的丰富信息。随着深度学习的发展,Liu Yu等人[5]将卷积稀疏表示方法用于图像融合领域。Ma Jiayi等人将图像融合问题视为一种优化问题[6],通过博弈尽可能使得融合结果与红外图像相似,且保留可见光中的梯度信息,并系统总结[7]深度学习方法在图像融合中的应用。
基于红外和可见光的差异,研究者提出了基于显著性分层的融合方法。D. P. Bavirisetti等人[8]使用均值和中值滤波结果的差值,度量视觉显著性生成融合系数。Li Hui等人[9]使用潜在低秩表示(latent low-rank representation,LatLRR)分解得到显著层和基层,更好地利用红外图像与可见光图像的互补特性。Zhang Xingchen等人[3]提出一个可见光和红外图像融合数据集,并系统比较了20种开源融合方法的客观指标平均值,其中LatLRR方法在3个指标上达到最优,但显著层采用简单的求和融合,损失了部分对比度和细节信息。
本文针对红外和可见光融合图像目标区域对比度较小、细节保留不足的问题,提出一种基于LatLRR分解的红外可见光图像融合框架。源图像经过LatLRR和多尺度分解得到显著层、基层低频和基层高频,其中显著层包含能量相对集中的局部显著区域,基层低频主要包含能量较为分散的全局信息,基层高频主要包含轮廓、纹理等结构信息。根据分层特点设计对应的融合规则。针对显著层设计突出对比度信息的加权融合规则,以更好保留显著性信息;使用金字塔尺度分解得到基层低频部分,针对基层低频设计基于L1范数和稀疏系数的融合规则,保留源图像不同区域的互补信息;针对基层高频选取绝对值最大保留结构信息。
1. 相关理论
1.1 潜在低秩表示
LatLRR是Guangcan Liu等人[10]在低秩表示(low-rank representation,LRR)基础上提出的。低秩表示[11]是一种从观测矩阵中恢复原始矩阵的技术,其基本假设是原始数据满足低秩,将观测矩阵分解为一个低秩矩阵和噪声矩阵,该问题被描述为:
$$ \min\limits _{D, E} \operatorname{rank}(X)+\lambda\|E\|_{l} \quad \text { s.t. } X=\boldsymbol{D}+E$$ (1) 式中:λ为大于零的常数;$ {\Vert ·\Vert }_{l} $为特定的范数;D为原始矩阵;E为分离出来的噪声。
LRR无法提取局部结构信息,而LatLRR通过求解公式(2)的优化问题,可以从原始数据中提取全局结构和局部结构信息。不仅可以将噪声分离出来,还将显著性信息提取出来,作为一个单独的子空间,其问题描述如下:
$$ \min\limits _{Z, L, E}\|Z\|_{*}+\|L\|_{*}+\lambda\|E\|_{1} \text { s.t. } \boldsymbol{X}=\boldsymbol{X }Z+L \boldsymbol{X}+E $$ (2) 式中:λ为大于零的常数;$ {\Vert ·\Vert }_{1} $为矩阵1范数;X为观察得到的矩阵;XZ为分离出来的基层;LX为提取出来的显著层,E为噪声。从图 1中可以看出,显著层包含局部显著区域,是红外和可见光图像融合中重点保留的信息,对融合结果中目标区域的对比度强弱有关键影响;基层由于显著性区域部分能量被分解到了显著层,图像整体亮度下降,主要包含目标整体以及背景细节。
1.2 稀疏表示
稀疏表示基于所有信号都可以被一组原子线性组合近似的假设,原子组成的矩阵被称为字典,且仅利用少数原子可表示,即系数存在稀疏性。稀疏表示的优化式[12]为:
$$ \mathop {\min }\limits_x {\left\| x \right\|_0}\quad s.t.\left\| {y - Dx} \right\|_2^2 \leqslant \varepsilon $$ (3) 式中:y为待表示信号;D为字典;x为系数向量;$ {\Vert ·\Vert }_{0} $为向量0范数;$ {\Vert ·\Vert }_{2}^{2} $为向量范数的平方;ε为稀疏表示误差。
稀疏表示仅适用于低维度向量,因此需要利用滑窗技术对图像进行分块,而融合中常用的“最大L1范数”易受高频噪声的影响,造成空间不一致性,因此稀疏表示方法更适用于处理低频分量[13]。
1.3 多尺度变换
多尺度变换通过尺度分解得到不同分辨率、方向子带图像,并针对子带图像特点设计对应的融合规则。经典的方法包括[14]金字塔变换、小波变换、多分辨率几何变换等。
其中比率金字塔通过相邻两层之间的比率实现尺度分解,能够突出对比度信息。分解和重建过程如公式(4)、(5)和(6):
$$ \left\{\begin{array}{l} \mathrm{RP}_{l}=\frac{G_{l}}{\operatorname{Expand}\left(G_{l+1}\right)} & \text { 当 } 0 \leq l \leq N-1 \text { 时 } \\ \;\;\;\;\;\;\;\;\;\;\;\mathrm{RP}_{N}=G_{N} & \text { 当 } l=N \text { 时 } \end{array}\right.$$ (4) $$ \begin{array}{l}{\text{G}}_{l}^{\ast }(i,j)=\operatorname{Expand}({G}_{l})=\\ 4{\displaystyle \sum _{m=-2}^{2}{\displaystyle \sum _{n=-2}^{2}w(m,n)}}{\text{G}}_{l}^{\ast }(\frac{i+m}{2},\frac{j+n}{2})\\ (0 < l\le N,0 < i\le {C}_{l},0 < j\le {R}_{l})\end{array} $$ (5) 式中:RPl为比例低通金字塔各层的图像;w(m, n)为有低通特性的窗口函数;GN为高斯金字塔第N层图像;Expand()为放大算子;Cl、Rl为对应层长和宽。重建过程表示为:
$$ \left\{\begin{array}{cc} G_{N}=\mathrm{RP}_{N} & \text { 当 } l=N \text { 时 } \\ G_{l}=\mathrm{RP}_{i}^{*} \operatorname{Expand}\left(G_{l+1}\right) & \text { 当 } 0 \leq l \leq N-1 \text { 时 } \end{array}\right. $$ (6) 2. 改进后的融合方法
本文提出的图像融合框架如图 2所示,首先利用LatLRR分解得到相应的显著层和基层,并将基层进一步分解为高频和低频部分。以红外图像源为例,分解后得到的各层示意图如图 3所示,其中显著层提取到能量较为集中的局部显著区域,表现为亮度和对比度突出的目标区域;基层低频包含图像的主要内容,表现为较平滑的全局信息,而基层高频部分则包含图像轮廓、边缘等细节信息。
2.1 基层融合
源图像经过LatLRR分解之后得到的红外和可见光基层分别表示为IRbase和VIbase,如图 4所示。进一步利用比率金字塔分解将图像基层分解为高频部分IRbase-high和VIbase-high以及低频部分IRbase-low和VIbase-low,较好地保留和增强图像对比度。
2.1.1 基层低频融合
红外和可见光进行融合时,源图像的同一位置区域可能有不同的亮度和对比度。传统方法针对低频部分通常采用加权平均方式,但平均的融合规则对于不同模态的融合容易造成能量的损失。
稀疏表示的方法对低频部分具有良好的表达能力。本文利用稀疏表示对基层低频部分进行融合,并设计利用不同的融合规则加权融合保留不同的显著特征,具体步骤如下:
1)对红外和可见光源进行滑窗操作分别得到标准化后的向量$\hat v_\mathrm{IR}^i$和$\hat v_\mathrm{VI}^i$。求解公式(7)的优化问题得到稀疏系数。
$$ \begin{array}{l} \alpha_{\mathrm{IR}}^{i}=\arg \min\limits _{\alpha}\|\alpha\|_{0} \text { s.t. }\left\|\hat{v}_{\mathrm{IR}}^{i}-D \alpha\right\|_{2} <\varepsilon \\ \alpha_{\mathrm{VI}}^{i}=\arg \min\limits _{\alpha}\|\alpha\|_{0} \text { s.t. }\left\|\hat{v}_{\mathrm{VI}}^{i}-D \alpha\right\|_{2} <\varepsilon \end{array}$$ (7) 式中:D是字典,αIRi和αVIi分别是$\hat v_\mathrm{IR}^i$和$\hat v_\mathrm{VI}^i$对应的稀疏系数。
2)稀疏系数的融合分别采用“最大L1范数”和“最大稀疏系数”融合规则。
①“最大L1范数”以稀疏向量的L1范数衡量特征的显著程度:
$$ \alpha_{\mathrm{F} 1}^{i}=\left\{\begin{array}{cc} \alpha_{\mathrm{IR}}^{i} & \text { 当 }\left\|\alpha_{\mathrm{IR}}^{i}\right\|_{1}>\left\|\alpha_{\mathrm{VI}}^{i}\right\|_{1} \text { 时 } \\ \alpha_{\mathrm{VI}}^{i} & \text { 其他 } \end{array}\right. $$ (8) ②“最大稀疏系数”以稀疏系数的绝对值大小反映了该特征的显著程度:
$$x_{\mathrm{F} 1}^{i}=\left\{\begin{array}{cc} x_{\mathrm{IR}}^{i} & \text { 当 }\left|x_{\mathrm{IR}}^{i}\right|>\left|x_{\mathrm{VI}}^{i}\right| \text { 时 } \\ x_{\mathrm{VI}}^{i} & \text { 其他 } \end{array}\right.$$ (9) 式中:$ \alpha_{\mathrm{IR}}^{i}=\left(x_{\mathrm{IR}}^{i 1}, x_{\mathrm{IR}}^{i 2}, x_{\mathrm{IR}}^{i 3}, \cdots, x_{\mathrm{IR}}^{i j}\right)^{\mathrm{T}}$;αVIi,αF1i和αF2i同理;$ |·| $为取绝对值。
③ 对不同融合规则得到两个对应的稀疏系数向量αF1i和αF2i进行加权平均,得到融合后的稀疏系数αFi,即:
$$ \alpha_{\mathrm{F}}^{i}=\frac{1}{2} \alpha_{\mathrm{F} 1}^{i}+\frac{1}{2} \alpha_{\mathrm{F} 2}^{i} $$ (10) 图 5示意了不同规则下基层图像的融合效果。从结果来看,两者在图像中的目标区域特征保留情况相近,但在背景细节纹理上具有互补性。其中“最大L1范数”取自同一个源图像的图像块,在该例中倾向于保留较亮的细节特征,但损失了一定的对比度。而“最大稀疏系数”将每个原子对应的特征作为一组,选择保留来自两个源图像中更显著的系数对应的原子特征,组合为新的图像块。经过加权融合之后的结果保证图像对比度的同时,保留了丰富的细节。
利用字典D得到融合向量vFi=DαFi并进行重建得到基层低频分量融合结果Fbase-low。
2.1.2 基层高频融合
基层高频部分包含了图像中的边缘细节,对于比率金字塔分解之后得到的不同尺度高频子带,利用像素绝对值度量活跃程度,并使用绝对最大值的融合规则保留高频细节信息。
2.1.3 基层重建
将融合后的低频分量Fbase-low和高频分量Fbase-high根据公式(6)进行重建,得到融合后的基层图像Fbase。
2.2 显著层融合
显著层包含了各个源图像中能量集中的显著区域,其融合规则会直接影响红外和可见光融合的效果。Li Hui等人[9]指出显著层信息需要没有损失地保留在融合结果中,并利用逐像素加和方式融合,总权重为2。
本文设计基于滑窗的局部方差度量显著性,权重和为2以突出图像源中的局部显著性,具体公式如下:
$$ F_{\text {saliency }}=2 \cdot \omega_{\mathrm{IR}} \cdot \mathrm{IR}_{\text {saliency }}+\left(2-2 \cdot \omega_{\mathrm{IR}}\right) \cdot \mathrm{VI}_{\text {saliency }} $$ (11) 式中:$\omega_{\mathrm{IR}}=\frac{\operatorname{Var}_{\mathrm{IR}}^{i}}{\operatorname{Var}_{\mathrm{IR}}^{i}+\operatorname{Var}_{\mathrm{VI}}^{i}}$决定显著层加权融合的权重;varIRi和varVIi分别为滑窗内图像块的方差。方差度量图像局部区域中的对比度以及信息丰富程度。在红外和可见光显著性重叠区域,加权平均方式合理保留多个源的显著信息;而在显著性非重叠区域,基于滑窗方法最大限度保留源的局部显著性。
3. 实验结果与分析
3.1 实验设定
实验数据主要源自TNO数据集[15],包含不同应用场景的10对红外可见光图像对,如图 6所示。第一、三行是红外图像,第二、四行是对应的可见光图像。
本文选择了8种经典的图像融合算法,分别为ADF(anisotropic diffusion fusion)[16]、CSR(convolutional sparse representation)[5]、TE-MST(target-enhanced multiscale transform decomposition)[17]、FPDE(fourth order partial differential equations)[18]、GF(gradientlet filter)[19]、TIF(two-scale image fusion)[20]、LatLRR(latent low-rank representation)[9]以及MSVD(multi-resolution singular value decomposition)[21]对数据集中的图像进行图像融合,与提出的方法进行定性和定量比较分析。
实验在AMD Ryzen 5 4600H 3.00 GHz,16 GB RAM的计算机上运行,其中金字塔分解层数为5。
3.2 融合结果及分析
图 7为源图像“soldier behind smoke”的各个方法融合结果。红外源图像中包含主要目标以及丰富的背景信息,可见光图像中主要是烟雾。从对比结果中可以看出,ADF,FPDE,GF,MSVD得到的士兵部分边缘细节十分模糊;CSR得到的融合结果目标区域对比度不强;TE-MST完整保留了红外图像中的士兵,但是背景细节和目标区域对比度损失较多;TIF和LatLRR目标区域对比度较强,但背景信息损失较大;本文提出的方法较好地保留了背景细节以及士兵区域的完整信息,且对比度较强。
图 8和图 9分别为图像“street”和“boat”的融合对比结果。图像“street”,本文方法的融合结果在行人处整体亮度较亮,对比度显著,而在商店周围,则保留了丰富的细节如灯牌上的文字等。对于图像“boat”,ADF、CSR、FPDE、TIF、LatLRR、MSVD和GF等融合结果对比度普遍较低,TE-MST和本文方法得到结果中船与背景对比度较强,同时没有因为显著部分过亮导致船上细节信息的损失,保留了丰富的背景纹理信息。
本文采用EN(entropy)、AG(avgerage gradient)、CE(cross entropy)、SF(spatial frequency)、SD(standard deviation)和EI(edge intensity)6种客观评价指标定量评估各种方法的融合质量[22]。EN度量图像中的信息量;AG表示图像的平均梯度,用于描述图像中细节和纹理的丰富程度;CE为结果与源图像的交叉熵,衡量的是融合之后的图像与源图像的相似程度,CE越小图像间的差异越小;SF描述的是图像在空间上的活跃程度;SD反映图像的对比度;EI度量图像中细节信息多少的客观指标。
表 1为图像“soldier behind smoke”、“street”和“boat”9种方法融合结果的客观指标评价结果,表中加粗数值表示该指标下的最优值。图像“soldier behind smoke”客观评价指标中TE-MST和本文方法分别有3个指标最优,与定性分析的结论基本一致。图像“street”所提算法的大部分指标均排名靠前。
表 1 9种方法在‘soldier behind smoke’、‘street’和‘boat’上的客观指标Table 1. Objective evaluation indexes of nine methods on'soldier behind smoke', 'street' and'boat'Source image Methods ADF CSR TE-MST FPDE GF LatLRR MSVD TIF OURS Soldier behind smoke EN 6.892 6.925 6.563 6.899 7.166 6.924 6.894 7.053 7.297 AG 3.604 3.580 4.500 3.567 3.369 2.674 2.871 3.863 3.232 CE 3.766 3.014 2.349 3.109 2.982 2.870 3.173 2.485 1.544 SF 10.606 11.225 11.930 10.161 9.767 7.755 9.693 11.360 8.558 SD 33.280 34.120 28.180 33.346 39.749 33.797 33.101 36.420 41.472 EI 33.163 34.478 43.443 32.901 32.719 26.200 25.596 38.837 33.934 Street EN 6.040 6.013 6.776 6.067 6.133 6.030 5.935 6.414 6.852 AG 2.682 2.525 3.597 4.105 2.714 2.413 2.176 3.298 5.551 CE 3.278 3.255 2.994 3.111 3.447 1.076 3.494 2.222 4.863 SF 9.790 11.064 12.593 12.484 10.445 9.184 9.964 11.612 18.467 SD 21.981 23.207 35.386 22.172 31.453 27.485 21.149 30.346 42.875 EI 27.827 26.632 38.053 41.107 28.833 25.682 22.388 35.128 56.952 Boat EN 5.005 4.965 6.436 4.984 5.362 5.076 4.892 5.226 6.373 AG 1.728 1.456 2.169 1.681 1.530 1.406 1.215 1.969 2.348 CE 3.999 3.955 1.396 3.367 4.186 1.571 3.573 3.540 1.780 SF 6.041 5.764 7.233 5.176 5.429 4.756 3.897 6.303 8.537 SD 11.082 11.250 33.517 10.800 15.426 12.892 10.456 13.169 27.118 EI 17.479 15.085 22.265 17.052 15.792 14.562 12.183 20.446 23.994 不同客观评价指标在不同源图像上的评价排名上有差异,为了对比TNO中10对图像源的融合效果,表 2统计了不同图像对的客观指标平均值。从统计结果来看,提出的融合算法能够保留丰富的图像细节,表现为EN、AG、SF和EI等反映图像特征丰富程度的客观指标排名靠前,在反映融合结果与源图像的相似程度的CE指标上排名次优,在反映图像对比度的SD指标上表现很好,综上分析达到了保留细节的同时增强图像对比度的效果。
表 2 9种方法在10对源图像上的客观指标平均值Table 2. Average values of objective evaluation indexes of nine methods on ten pairs of source imagesAverage Methods ADF CSR TE-MST FPDE GF LatLRR MSVD TIF Ours EN 6.083 6.068 6.724 6.078 6.310 6.198 6.019 6.340 6.862 AG 2.743 2.388 3.464 2.840 2.336 2.233 2.074 3.001 3.529 CE 2.306 2.266 1.558 1.911 2.218 1.354 1.998 1.847 1.393 SF 7.283 7.011 9.218 7.272 6.725 6.158 6.602 8.144 9.768 SD 21.866 22.238 32.147 21.771 30.854 24.791 21.416 26.060 35.556 EI 26.600 23.911 34.097 27.485 23.694 22.300 19.541 30.484 34.776 表 3对比不同算法对不同分辨率源图像进行融合的运行时间,以及它们的均值。其中CSR、LatLRR方法和本文提出的方法由于需要对大量图像块进行稀疏或低秩分解,算法复杂度非常高,运行时间较长。从统计结果来看,以60 fps为标准,除了TE-MST、TIF方法外,大部分融合算法在未加速的情况下,均无法达到实时处理,如何在保证融合效果的同时,提升图像融合算法的计算效率,是影响融合算法未来应用的重要因素。
表 3 9种方法在3种不同分辨率源图像上的运行时间以及平均值Table 3. The running time and average value of nine methods on three different resolution source images (seconds per image pair)s Source image Resolution Methods ADF CSR TE-MST FPDE GF LatRR MSVD TIF Ours Boat street 505×510 0.421 52.381 0.006 0.952 0.101 97.959 0.295 0.031 99.247 Soldier 632×496 0.486 68.214 0.012 1.119 0.232 126.849 0.374 0.028 127.150 Behind smoke 768×576 0.699 79.660 0.015 1.682 0.146 215.724 0.490 0.088 217.110 Average - 0.535 66.752 0.011 1.251 0.160 146.844 0.386 0.049 147.836 4. 结论
红外和可见光图像融合应用中,红外图像通常包含对比度较强的目标信息,而可见光图像包含背景中较丰富的纹理和细节信息。基于多尺度、稀疏、深度学习等融合算法通常采用尺度变换、固定字典或深度特征来表示源图像中的有效信息。本文利用低秩和多尺度分解得到基层低频、基层高频、显著层,分别表达图像中的全局信息、结构和局部显著性。针对各层的特点设计不同的融合规则,其中对比度较低的基层分别采用稀疏表示和比率金字塔处理低频和高频部分;能量相对集中的显著层,设计方差最大融合规则增强局部显著性。在TNO数据集的定性和定量实验分析表明,本文算法保留了较多的图像细节并增强目标区域的对比度。由于基于低秩分解的方法算法复杂度较高,无法达到实时处理的要求,研发快速融合方法满足应用需求将是未来红外和可见光图像融合的重点。
-
表 1 9种方法在‘soldier behind smoke’、‘street’和‘boat’上的客观指标
Table 1 Objective evaluation indexes of nine methods on'soldier behind smoke', 'street' and'boat'
Source image Methods ADF CSR TE-MST FPDE GF LatLRR MSVD TIF OURS Soldier behind smoke EN 6.892 6.925 6.563 6.899 7.166 6.924 6.894 7.053 7.297 AG 3.604 3.580 4.500 3.567 3.369 2.674 2.871 3.863 3.232 CE 3.766 3.014 2.349 3.109 2.982 2.870 3.173 2.485 1.544 SF 10.606 11.225 11.930 10.161 9.767 7.755 9.693 11.360 8.558 SD 33.280 34.120 28.180 33.346 39.749 33.797 33.101 36.420 41.472 EI 33.163 34.478 43.443 32.901 32.719 26.200 25.596 38.837 33.934 Street EN 6.040 6.013 6.776 6.067 6.133 6.030 5.935 6.414 6.852 AG 2.682 2.525 3.597 4.105 2.714 2.413 2.176 3.298 5.551 CE 3.278 3.255 2.994 3.111 3.447 1.076 3.494 2.222 4.863 SF 9.790 11.064 12.593 12.484 10.445 9.184 9.964 11.612 18.467 SD 21.981 23.207 35.386 22.172 31.453 27.485 21.149 30.346 42.875 EI 27.827 26.632 38.053 41.107 28.833 25.682 22.388 35.128 56.952 Boat EN 5.005 4.965 6.436 4.984 5.362 5.076 4.892 5.226 6.373 AG 1.728 1.456 2.169 1.681 1.530 1.406 1.215 1.969 2.348 CE 3.999 3.955 1.396 3.367 4.186 1.571 3.573 3.540 1.780 SF 6.041 5.764 7.233 5.176 5.429 4.756 3.897 6.303 8.537 SD 11.082 11.250 33.517 10.800 15.426 12.892 10.456 13.169 27.118 EI 17.479 15.085 22.265 17.052 15.792 14.562 12.183 20.446 23.994 表 2 9种方法在10对源图像上的客观指标平均值
Table 2 Average values of objective evaluation indexes of nine methods on ten pairs of source images
Average Methods ADF CSR TE-MST FPDE GF LatLRR MSVD TIF Ours EN 6.083 6.068 6.724 6.078 6.310 6.198 6.019 6.340 6.862 AG 2.743 2.388 3.464 2.840 2.336 2.233 2.074 3.001 3.529 CE 2.306 2.266 1.558 1.911 2.218 1.354 1.998 1.847 1.393 SF 7.283 7.011 9.218 7.272 6.725 6.158 6.602 8.144 9.768 SD 21.866 22.238 32.147 21.771 30.854 24.791 21.416 26.060 35.556 EI 26.600 23.911 34.097 27.485 23.694 22.300 19.541 30.484 34.776 表 3 9种方法在3种不同分辨率源图像上的运行时间以及平均值
Table 3 The running time and average value of nine methods on three different resolution source images (seconds per image pair)
s Source image Resolution Methods ADF CSR TE-MST FPDE GF LatRR MSVD TIF Ours Boat street 505×510 0.421 52.381 0.006 0.952 0.101 97.959 0.295 0.031 99.247 Soldier 632×496 0.486 68.214 0.012 1.119 0.232 126.849 0.374 0.028 127.150 Behind smoke 768×576 0.699 79.660 0.015 1.682 0.146 215.724 0.490 0.088 217.110 Average - 0.535 66.752 0.011 1.251 0.160 146.844 0.386 0.049 147.836 -
[1] 沈英, 黄春红, 黄峰, 等. 红外与可见光融合技术的研究进展[J]. 红外与激光工程, 2021(9): 1-16. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202109014.htm SHEN Y, HUANG C H, HUANG F, et al. Infrared and visible image fusion: review of key technologies [J]. Infrared and Laser Engineering, 2021(9): 1-16. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202109014.htm
[2] 杨孙运, 奚峥皓, 王汉东, 等. 基于NSCT和最小化-局部平均梯度的图像融合[J]. 红外技术, 2021, 43(1): 13-20. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202101003.htm YANG S Y, XI Z H, WANG H D, et al. Image fusion based on NSCT and minimum-local mean gradient [J]. Infrared Technology, 2021, 43(1): 13-20. https://www.cnki.com.cn/Article/CJFDTOTAL-HWJS202101003.htm
[3] ZHANG X, YE P, XIAO G. VIFB: A Visible and Infrared Image Fusion Benchmark[C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops IEEE, 2020: 468-478.
[4] CHEN J, WU K, CHENG Z, et al, A saliency-based multiscale approach for infrared and visible image fusion[J]. Signal Processing, 2021, 182(4): 107936.
[5] LIU Y, CHEN X, Ward R K, et al. Image fusion with convolutional sparse representation[J]. IEEE signal processing letters, 2016, 23(12): 1882-1886. DOI: 10.1109/LSP.2016.2618776
[6] MA J Y, CHEN C, LI C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100-109. DOI: 10.1016/j.inffus.2016.02.001
[7] ZHANG H, XU H, TIAN X, et al. Image fusion meets deep learning: A survey and perspective[J]. Information Fusion, 2021, 76(11): 323-336.
[8] Bavirisetti D P, D Huli R. Two-scale image fusion of visible and infrared images using saliency detection[J]. Infrared Physics & Technology, 2016, 76: 52-64.
[9] LI H, WU X J. Infrared and visible image fusion using latent low-rank representation[J/OL] [2018-04-24]. arXiv preprint. https://arxiv.org/abs/1804.08992.
[10] LIU G, YAN S. Latent low-rank representation for subspace segmentation and feature extraction[C]//International Conference on Computer Vision, 2011: 1615-1622.
[11] 刘琰煜, 周冬明, 聂仁灿, 等. 低秩表示和字典学习的红外与可见光图像融合算法[J]. 云南大学学报: 自然科学版, 2019, 41(4): 689-698. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201904007.htm LIU Y Y, ZHOU D M, NIE R C, et al. Infrared and visible image fusion scheme using low rank representation and dictionary learning[J]. Journal of Yunnan University: Natural Sciences Edition, 2019, 41(4): 689-698. https://www.cnki.com.cn/Article/CJFDTOTAL-YNDZ201904007.htm
[12] 王凡, 王屹, 刘洋. 利用结构化和一致性约束的稀疏表示模型进行红外和可见光图像融合[J]. 信号处理, 2020, 36(4): 572-583. https://www.cnki.com.cn/Article/CJFDTOTAL-XXCN202004012.htm WANG F, WANG Y, LIU Y. Infrared and visible image fusion method based on sparse representation with structured and spatial consistency constraints[J]. Journal of Signal Processing, 2020, 36(4): 572-583. https://www.cnki.com.cn/Article/CJFDTOTAL-XXCN202004012.htm
[13] LIU Y, LIU S, WANG Z. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015(24): 147-164.
[14] LI S, KANG X, FANG L, et al. Pixel-level image fusion: a survey of the state of the art[J]. Information Fusion, 2017, 33: 100-112. DOI: 10.1016/j.inffus.2016.05.004
[15] Toet Alexander. The TNO Multiband image data collection[J]. Data in Brief, 2017, 15: 249-251. DOI: 10.1016/j.dib.2017.09.038
[16] Bavirisetti D P, Dhuli R. Fusion of infrared and visible sensor images based on anisotropic diffusion and Karhunen-Loeve transform[J]. IEEE Sensors Journal, 2015, 16(1): 203-209.
[17] CHEN J, LI X J, LUO L B, et al. Infrared and visible image fusion based on target-enhanced multiscale transform decomposition[J]. Information Sciences, 2020, 508: 64-78. DOI: 10.1016/j.ins.2019.08.066
[18] Ba Virisetti D P. Multi-sensor image fusion based on fourth order partial differential equations[C]//20th International Conference on Information Fusion (Fusion) of IEEE, 2017: 1-9.
[19] MA J Y, ZHOU Y. Infrared and visible image fusion via gradientlet filter[J]. Computer Vision and Image Understanding, 2020, 197: 103016.
[20] Bavirisetti D P, D Huli R. Two-scale image fusion of visible and infrared images using saliency detection[J]. Infrared Physics & Technology, 2016, 76: 52-64.
[21] Naidu V. Image fusion technique using multi-resolution singular value decomposition[J]. Defence Science Journal, 2011, 61(5): 479-484. DOI: 10.14429/dsj.61.705
[22] 刘智嘉, 贾鹏, 夏寅辉. 基于红外与可见光图像融合技术发展与性能评价[J]. 激光与红外, 2019, 49(5): 123-130. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201905022.htm LIU Z J, JIA P, XIA Y H, et al. Development and performance evaluation of infrared and visual image fusion technology[J]. Laser & Infrared, 2019, 49(5): 123-130. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201905022.htm
-
期刊类型引用(10)
1. 史文云,任晓明,颜楠楠. 基于Schatten-p LatLRR的电力设备红外与可见光图像融合. 激光技术. 2025(01): 67-73 . 百度学术
2. 秦伟,段俊阳. 基于特征相似性的红外与可见光图像融合方法. 激光杂志. 2024(02): 119-123 . 百度学术
3. 尚宇辉,孟伟,房健,王雪峰. 改进径向基函数插值法的多聚焦图像滤波融合. 计算机仿真. 2024(02): 222-226 . 百度学术
4. 马路遥,罗晓清,张战成. 基于信息瓶颈孪生自编码网络的红外与可见光图像融合. 红外技术. 2024(03): 314-324 . 本站查看
5. 孙尚琦,张宝华,李永翔,吕晓琪,谷宇,李建军. 基于稀疏增强重加权与掩码块张量的红外弱小目标检测. 红外技术. 2024(03): 305-313 . 本站查看
6. 郑晓东,郑业爽,栾国森. 卷积神经网提取特征的红外与可见光图像融合研究. 激光杂志. 2024(05): 133-138 . 百度学术
7. 邸敬,梁婵,任莉,郭文庆,廉敬. 基于多尺度对比度增强和跨维度交互注意力机制的红外与可见光图像融合. 红外技术. 2024(07): 754-764 . 本站查看
8. 祁艳杰,侯钦河. 多尺度和卷积注意力相结合的红外与可见光图像融合. 红外技术. 2024(09): 1060-1069 . 本站查看
9. 陈彦林,王志社,邵文禹,杨帆,孙婧. 红外与可见光图像多尺度Transformer融合方法. 红外技术. 2023(03): 266-275 . 本站查看
10. 龙志亮,邓月明,王润民,董俊. 基于显著性检测与MDLatLRR分解的红外与可见光图像融合. 红外技术. 2023(07): 705-713 . 本站查看
其他类型引用(2)