Structural Similarity Fusion of Infrared and Visible Image in the M-SWF Domain
-
摘要: 为了解决常规滤波器组在红外与可见光图像融合领域中存在提取结构信息不充分和融合视觉效果不佳的问题,本文提出了一种基于多尺度滑动窗口滤波器(Multi-scale Sliding Window Filter,M-SWF)图像融合方法。首先,提出一种基于SWF的多尺度图像分解方法实现对源图像的结构细节层和基础层提取;其次,采用L1范数融合规则(L1-Fusion, L1F)整合结构细节层,提取图像的结构信息;然后,利用一种图像能量贡献融合规则(Energy Attribute-Fusion, EAF)整合基础层,突出显著性目标;最后,融合图像通过叠加整合后的多尺度结构细节层和基础层得到。实验首先通过分析能量贡献系数,从主客观方面得到M-SWF域内红外与可见光图像融合较为适宜的能量贡献系数;其次,在该取值下,本文提出的M-SWF融合模型与其他的融合方法相比,不仅提高了对源图像结构信息的提取能力,而且通过整合图像的能量属性,改善了融合效果不佳问题,有效地突出了显著性目标。Abstract: This study introduces a multiscale sliding window filter (M-SWF) image fusion method to address issues with traditional filter banks in infrared and visible image fusion. First, a multiscale image decomposition method based on SWF is proposed to extract the structural detail layers and base layers of the source image. Second, the L1 norm fusion rule (L1-Fusion, L1F) is used to integrate the structural detail layers, which can extract the structure of the image. Then, to highlight the salient objects, energy attribute fusion (EAF), which is a rule for fusing image energy contributions, is used to integrate the base layers, and the fusion results are obtained by stacking the integrated multiscale structure detail layers and base layers. The energy contribution coefficient was analyzed, and a suitable energy contribution coefficient was obtained for the fusion of infrared and visible images in the M-SWF domain from subjective and objective perspectives. Compared with other fusion methods, the M-SWF not only improves the ability to extract the structural information of the source image but also improves the poor fusion effect and effectively highlights salient targets by integrating the energy attributes of the image.
-
Keywords:
- infrared image /
- visible image /
- image fusion /
- side window filter /
- structural similarity
-
0. 引言
随着目标识别跟踪技术的发展,目标与环境红外特性研究、红外成像制导和红外隐身设计等领域对外场红外特性测量都提出了更高的要求,目标红外辐射特性的测量可为目标的探测、定位、识别、跟踪等研究提供多方面的数据,为系统的仿真提供目标的物理特征及数学模型,为隐身效果评估和隐身结构设计提供量化的特征[1]。而测量最重要的是需要一套满足各种测量平台的系统稳定性高、成像清晰、测量精度高的红外特性测量设备,尤其是在空中对地面目标进行动态测量[2]。目前,国内的机载吊舱主要是用于环境监测和图像录取,针对无人平台的红外目标特性测量的吊舱还没有,主要是通过在有人机上加装热像仪或光谱仪进行测量。本文主要研究红外成像测量设备加装无人平台进行外场测量需要解决的振动隔离和清晰成像问题,以便实现对海面目标实现稳定跟踪测量。
1. 设备结构及安装减振设计
与陆基或车载测量系统相比,由于机载平台在飞行过程中受气流和自身运动影响,会对安装在其上的测量吊舱产生扰动,使得测量单元接收到的目标辐射能量发生分散,降低目标红外特性跟踪测量的精度。因此要求测量吊舱能够隔离载体运动,保证测量单元的视轴相对惯性空间稳定,从而实现机载目标红外特性高精度跟踪测量。
为了保持载机气动外形,减少对载机机动性的干扰,测量吊舱外形设计成球形,选取导热性、导电性及电磁屏蔽性能好且具有较高的比刚度、比强度和良好的消振性能材料,在满足刚度、强度及稳定性的前提下,通过采用中空的蜂巢结构或加强肋等优化设计,去除掉不必要的多余重量,选用质量轻、微型化的外购接插件、元器件等,达到轻型化、小型化的目的。机载设备结构安装接口上均设置减振器,测量吊舱与升降机构通过减振器相连,隔离载机起飞和降落时对设备产生的冲击,保护机载设备内部的光学和电子器件,电路板采用加固框加固,增加抗冲击和振动的能力[3]。
为确保测量吊舱能够承受载机起降过程中的冲击与振动,通过减振器刚度阻尼及承载力计算分析选择合理的减振器,并结合测量吊舱的质量重心情况设计合理的安装布局,以实现对振动的有效抑制。测量吊舱与升降机构通过减振器相连,安装示意图如图 1所示。
吊舱采用如图 2所示的二级减振方案。第一级为外框架减振器,外减振器安装在吊舱与升降机构连接的基座上,光电吊舱整体座在4个均匀分布的外减振器上,实现对光电吊舱整体隔振。外减振器主要隔离Z向振动,X、Y向自由度被限制,绕X、Y、Z向的旋转运动也同时被限制。第二级是内框架减振器,为金属橡胶无角位移减振器,8个参数完全相同的内减振器相对于光学舱的质心对称布置,保证弹性系统的弹心与负载的重心重合,从而实现减振系统的完全解耦。
内减振器由金属构件与橡胶材料组合而成,通过结构设计,减振器不能绕X、Y、Z向旋转和Z向移动,只能沿X、Y向平动,结构如图 3所示。
2. 吊舱隔振稳定控制技术
载机飞行过程中,由于气流影响使得机身产生扰动,会影响到测量单元的成像清晰度以及吊舱的跟踪精度,这就需要平台能够隔离载体运动,保证测量单元视轴相对惯性空间稳定。为此,稳定跟踪平台采用双轴两框架结构,框架上安装速率陀螺,感应载机扰动,产生与干扰力矩成正比的电压信号用于控制轴系稳定电机,施加与干扰力矩大小相等方向相反的力矩以消除机身扰动的影响。
稳定跟踪单元由方位机构、俯仰机构及吊舱舱体结构件等部分组成,其中方位机构包括方位轴系、方位座及其U型架、方位力矩电机、方位码盘和光电一体化滑环等部件;俯仰机构包括俯仰轴系、俯仰包、俯仰力矩电机、限位机构、方位码盘、光纤陀螺、电源模块等部件。稳定跟踪平台的原理框图如图 4所示。
方位框架的回转轴上安装导电滑环、并用高精度光电编码器作为测角元件,由大力矩电机直接驱动,该轴系垂直布置支承方位轴系的所有部件,轴系两端分别安装了轴系的支承轴承、驱动电机和测角元件。方位轴系上端通过方位基座与上盖之间的O型圈实现密封,下端通过方位基座上的挡水裙实现防水。俯仰包采用整体密封性设计。其中轴端采用骨架动密封,框架与各端盖压合处采用O型密封圈密封。
稳定跟踪平台方位俯仰均采用力矩电机直接驱动方式,控制结构和控制算法设计方法基本相同,且相互之间相对独立,均包含电流回路、速度回路和位置回路3个部分。对于速度稳定系统,采用了以编码器进行数字测速形成局部速度反馈内环,而以陀螺作为空间测速元件组成外环的双环结构,内环由于包围了摩擦力矩扰动,主要用于消除摩擦力矩的影响,外环主要用于稳定。
载机飞行过程中受气流干扰产生扰动,自身发动机的工作也会产生扰动,根据扰动频率的特点,可分为高频扰动部分(f>20Hz)和低频扰动部分(f<20Hz)。针对不同频率的扰动需要采取不同的抑制措施:通过框架伺服系统抑制低频部分扰动,而高频扰动通过被动减振器实现隔离。因此解决机载吊舱稳定的有效途径是采用被动隔离加主动陀螺稳定控制的技术,如图 5所示。
被动隔振措施在本文第一部分已经阐述,这里不再详述,框架直驱控制系统的高精度稳定控制包括以下解决途径:①通过高精度快响应的伺服控制方法,采取干扰力矩的在线辨识和补偿技术,解决非线性摩擦、风载荷和飞行平台机动等产生的干扰力矩。②针对两轴陀螺稳定系统的大仰角非线性问题,采取补偿控制方法,实现俯仰角全范围的高精度稳定控制。③速率稳定系统的核心组成是低漂移、高宽带的角速率陀螺,通过陀螺实时滤波技术提高角速率陀螺的动态精度,以达到提高控制增益,抑制飞行平台姿态扰动提高稳定精度的目的。
3. 光学系统适应性设计
为满足测量吊舱体积小、重量轻的要求,双视场光学镜头设计采取沿轴平行移动变倍组来进行视场的切换,并尽量减少移动透镜的数量[4]。通过优化,在改变视场过程中,移动透镜的数量仅为一片。轴向移动式双视场光学镜头利用系统中一个镜片组的移动来改变系统焦距,由前固定组、变倍组和后固定组组成,其中前固定组为正透镜,变倍组为负透镜,后固定组为正透镜,通过改变变倍组的轴向位置,从而改变整个系统的焦距,并保证变焦时像面位置不变。
3.1 主动无热化设计
由于空中与地面之间的环境差异较大,特别是温度,随高度上升会迅速下降,温度变化会导致红外镜头的材料折射率、透镜厚度、透镜曲率半径和镜筒尺寸发生变化,若不采取补偿措施红外光学系统的成像性能将急剧下降。为了保证光学系统的性能,必须采取无热化补偿措施。对于两档变焦光学系统,由于不同焦距下所需要的调焦量不同,所以采用双金属片或不同镜片材料组合的被动式无热化难以实现[5]。本系统将采取主动无热化补偿措施,具体措施是在镜头内安装温度传感器,根据环境温度移动调焦镜片,实现调焦量的补偿,调焦机构采用凸轮传动机构,由微电机带动凸轮做旋转运动,通过凸轮上的两条凸轮槽,带动变焦镜片做前后运动,实现变焦功能。不同环境温度下通过移动调焦镜片,实现调焦量的补偿,确保图像在不同温度条件下始终清晰[6]。
为简化系统结构,中波镜头设计采取沿轴平行移动变倍组来进行视场的切换,并尽量减少移动透镜的数量,通过优化,在改变视场过程中,移动透镜的数量为一片。系统由9片透镜组成,材料为硅、锗、硫化锌和氟化镁4种常用红外光学材料。变焦和聚焦功能由一片锗透镜沿光轴前后移动实现,系统光路如图 6所示。
长波红外光学系统的结构形式与中波类似,系统由9片透镜组成,材料为锗和硫化锌两种常用红外光学材料。变焦和聚焦功能由一片锗透镜沿光轴前后移动实现,系统光路如图 7所示。
3.2 减振设计
作为机载测量分系统主要搭载平台的载机一般采用弹射起飞和伞降方式,起飞降落时会受到较大的冲击和振动,除测量吊舱为光学系统提供的减振措施外,光学系统还采用了以下设计措施:在压圈和镜片之间增加橡胶O型圈,避免了金属压圈和光学镜片的直接硬接触,以防止机载振动条件下镜片破裂;镜片与镜筒之间留有1mm左右的大间隙,待镜片装配完成后,用硅胶填充该间隙,以提高镜片径向方向的抗振性能,如图 8所示。
3.3 像质分析
短焦端在系统特征频率33mm/lp处,中波光学系统各视场调制传递函数均大于0.4,长波光学系统各视场调制传递函数均接近衍射极限,如图 9所示。
中波光学系统短焦端成像最大畸变为0.78%,长波光学系统短焦端成像最大畸变为-1.1%,如图 10所示。
长焦端在系统特征频率33mm/lp处,中波光学系统边缘视场子午方向调制传递函数为0.38,其余各视场调制传递函数均大于0.45,长波光学系统各视场调制传递函数均接近衍射极限,如图 11所示。
中波光学系统长焦端成像最大畸变为1.2%,长波光学系统长焦端成像最大畸变为1%,如图 12所示。
光学系统在室内温箱设计-10℃和外场20℃条件下成像效果[7]如图 13所示。
4. 系统减振效果验证
4.1 冲击、振动试验验证
系统按照GJB150A-2009《设备环境试验方法》规定要求,开展了冲击、振动试验,验证设备在冲击、振动环境下的工作适应性[8],测试情况如表 1所示。
表 1 试验条件参数表Table 1. Test condition parametersVibration Impact Vibration conditions Sine sweep frequency Impact waveform Half-sine wave Frequency range 20 -500Hz Peak acceleration Vertical direction 20g, vertical axis direction 15g, lateral axis direction 15g Acceleration amplitude 2g Pulse duration 11ms Vibration direction Three axial Impact direction Three-axis six-way, 2 times per axial Vibration time 20-500-20 Hz for a scan, one scan time 15 min, 2 times per axial Else No power during the test Else Power up for performance testing at 2nd scans per axial axis during the test 测试结果:振动试验在试验前、试验中、试验后对产品进行测试,冲击试验在试验前、试验后对产品进行测试,所有设备测试结果正常。
4.2 稳定精度仿真结果
稳定精度可以通过隔离度进行分析,指稳定平台对载体运动的去耦能力,用载体姿态变化角和框架指向误差角之比的分贝数表征。影响隔离度的主要因素包括以下几点。
姿态扰动的频率:由于载机姿态的变幻不是规律的,频率、幅值时刻处于变化中,因此无法采用理论上可以完全隔离扰动的前馈控制,只能使用反馈控制。而反馈系统的扰动隔离度随着频率的增加而减小。
姿态扰动的幅值:若扰动幅值非常大,超出了伺服系统电机的能力范围,则隔离度必然低于理论计算值。实际系统中,通过合理选择电机驱动能力,可以避免该问题。
陀螺漂移和噪声:陀螺漂移相当于在数据中增加了一项虚假值,造成伺服控制的实际效果中也存在漂移,降低了隔离度;陀螺噪声引入了实际并不存在的白噪声信号,伺服系统对它的响应相当于引入其它扰动源,降低了系统的隔离度。通过选择高性能陀螺和合适的数据处理方法,可以克服该因素的影响。
伺服控制性能:伺服系统设计是决定系统隔离度的决定性因素。伺服控制误差主要与驱动电机力矩、码盘分辨率和控制算法有关。根据吊舱负载,以及本方案选择的电机、码盘和控制算法,建立起吊舱控制模型进行仿真。针对舰船类典型目标,速度慢、机动小,仿真得到的误差不大于0.2 mrad。
考虑低频扰动,不影响探测器空间分辨率的低频扰动幅值Da的计算公式如下:
$${D_{\rm{a}}} = 2D \cdot \sin \left[ {\left( {\frac{{2{\rm{ \mathsf{ π} }}}}{T}} \right)\left( {\frac{{{T_{\rm{e}}}}}{2}} \right)} \right]$$ 式中:T是正弦运动周期;Te是探测器积分时间;D是正弦扰动的峰峰值。
通过计算,在载机摆动0.5 Hz,幅度3°的典型过程下,隔离后的扰动幅值Da=49.3μrad。如图 14所示,根据控制设计仿真,在输入10°/s,0.5 Hz的速率干扰下,经陀螺稳定隔离后,速度幅度衰减至0.01°/s。
4.3 动态跟踪精度验证
系统在外场条件下开展了动态跟踪精度测试,对系统跟踪精度进行验证,设备架设在移动拖车上,对测试跑道上行驶的汽车进行了跟踪,长波/中波小视场、长波/中波大视场,跟踪角偏差均方差统计情况如图 15所示。通过不同视场的中长波探测器跟踪目标时的角度偏差值波动情况,可以看出系统能够在活动平台上稳定跟踪快速移动的目标。
5. 结论
近年来,红外热成像日益广泛地应用于各种军事技术中,为红外武器的使用提供特征预测。现代武器系统越来越重视通过目标所产生的红外辐射来探测、识别、攻击目标,而发展红外武器系统及目标的隐身性能都要求提供各种典型目标的红外辐射特性[9]。红外成像测量系统是获取目标红外特征分布研究其目标特性的重要手段,而红外成像测量系统在不同环境条件下的稳定跟踪和清晰成像又是测量系统的最需要解决的问题。
本文为了解决这些问题采取的主要措施有:①机载设备结构安装接口上安装减振器,隔离载机起飞和降落时对设备产生的冲击,保护机载设备内部的光学和电子器件。②机载设备的外壳选材、框架设计、电路板加固等方面增加抗冲击和振动的能力,接插件采取密封、灌封等措施,紧固件采取防松处理。③测量吊舱采用被动隔离加主动陀螺稳定控制的技术,通过框架伺服系统抑制低频扰动,被动减振器隔离高频扰动。④光学组件装配通过压紧螺圈和胶粘工艺的配合,提高镜片的抗冲击和振动能力,在环境温度变化时,通过调焦量的补偿,确保成像在不同温度条件下始终清晰。经过系统实际测试证明这些措施合理有效,对红外测量系统实现不同环境下和平台下的稳定跟踪测量,获取目标红外特征提供了重要保障。
-
表 1 不同P值下的融合定量数据
Table 1 Fusion of quantitative data under different P
Qabf MIP SCD SSIM MSSIM VIFF RT/s Fig.4(c) 0.5007 0.9249 1.5446 0.7640 0.9071 0.3044 0.510 Fig.4(d) 0.5303 0.9329 1.7225 0.7637 0.9287 0.3311 0.513 Fig.4(e) 0.5293 0.9364 1.7823 0.7604 0.9287 0.3323 0.508 Fig.4(f) 0.5233 0.9380 1.7936 0.7565 0.9350 0.3407 0.504 Fig.4(g) 0.5163 0.9382 1.7969 0.7527 0.9181 0.3512 0.518 Fig.4(h) 0.5096 0.9369 1.7989 0.7490 0.9135 0.3626 0.506 表 2 客观评价数据
Table 2 Objective evaluation data
Qabf MIP SCD SSIM MSSIM VIFF RT/s Camp_1811 GFF 0.4241 0.8979 1.1453 0.6664 0.7186 0.2724 0.0990 CBF 0.3920 0.8701 1.3044 0.6238 0.7438 0.2839 3.4876 FFIF 0.4562 0.9104 1.2300 0.7257 0.8442 0.2933 0.3520 Resnet 0.3392 0.8823 1.4860 0.7777 0.8707 0.3203 12.3780 MLEPF 0.3640 0.8463 1.2691 0.6230 0.6878 0.2791 8.9630 M-SWF 0.4802 0.8857 1.7003 0.7476 0.9249 0.4410 0.2520 Trees_4917 GFF 0.2526 0.8807 0.9299 0.7559 0.8560 0.2651 0.1160 CBF 0.3296 0.8086 1.2718 0.5963 0.6850 0.5599 3.1175 FFIF 0.2271 0.8928 0.6808 0.7627 0.7782 0.0877 0.4260 Resnet 0.3847 0.8492 1.2224 0.8462 0.9249 0.2975 11.8230 MLEPF 0.4963 0.7815 0.4175 0.5972 0.6365 0.3880 9.1730 M-SWF 0.5431 0.8626 1.6195 0.8095 0.9597 0.4528 0.2370 Kaptein_1123 GFF 0.1079 0.8486 0.4842 0.4425 0.2967 0.3722 0.2830 CBF 0.4315 0.8645 1.4597 0.5370 0.6509 0.3280 8.9544 FFIF 0.3053 0.8954 1.2110 0.6758 0.8472 0.3671 0.4770 Resnet 0.3303 0.8911 1.6111 0.7467 0.8582 0.3024 40.4150 MLEPF 0.4110 0.8171 1.3662 0.5523 0.5958 0.1951 20.7530 M-SWF 0.5778 0.8955 1.8601 0.7183 0.9423 0.4522 0.4840 表 3 TNO数据集上的平均客观评价数据
Table 3 Average objective evaluation data on TNO
Qabf MIP SCD SSIM MSSIM VIFF RT/s GFF 0.2899 0.9020 1.1450 0.6736 0.7554 0.2488 0.2118 CBF 0.6054 0.8897 1.1488 0.6679 0.7864 0.2895 9.7087 FFIF 0.2881 0.9016 1.1914 0.7098 0.8050 0.2271 0.4828 Resnet 0.4093 0.8683 1.2537 0.6625 0.7516 0.3145 27.2588 MLEPF 0.4325 0.8514 1.3164 0.6006 0.6582 0.2634 20.2127 M-SWF 0.5691 0.9084 1.8071 0.7476 0.9317 0.3827 0.3944 -
[1] MA Jiayi, MA Yong, LI Chang. Infrared and visible image fusion methods and applications: a survey [J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004。
[2] ZHAO Z, XU S, ZHANG C, et al. Bayesian fusion for infrared and visible images[J]. Signal Processing, 2020, 177: 165-168. DOI: 10.1016/ j.sigpro.2020.107734
[3] HUAN Kewei, LI Xiangyang, CAO Yutong, et al. Infrared and visible image fusion of convolutional neural network and NSST[J]. Infrared and Laser Engineering, 2022, 51(3): 20210139. DOI: 10.3788/IRLA20210139.
[4] CHENG Boyang, LI Ting, WANG Yulin. Fusion of infrared and visible light images based on visual saliency weighting and maximum gradient singular value[J]. Chinese Optics, 2022, 15(4): 675-688. DOI: 10.37188/CO.2022-0124
[5] 李威, 李忠民. 一种基于EASSF的红外与可见光图像视觉保真度融合[J]. 红外技术, 2022, 44(7): 686-692. http://hwjs.nvir.cn/article/id/2c60451f-34b1-47a3-bab6-629774a73a0c LI Wei, LI Zhongmin. Visual fidelity fusion of infrared and visible image using edge-aware smoothing-sharpening filter[J]. Infrared Technology, 2022, 44(7): 686-692. http://hwjs.nvir.cn/article/id/2c60451f-34b1-47a3-bab6-629774a73a0c
[6] 李永萍, 杨艳春, 党建武, 等. 基于变换域VGGNet19的红外与可见光图像融合[J]. 红外技术, 2022, 44(12): 1293-1300. http://hwjs.nvir.cn/article/id/48843dec-a48b-468f-b743-4a00c345f406 LI Yongping, YANG Yanchun, DANG Jianwu, et al. Infrared and visible image fusion based on transform domain VGGNet19[J]. Infrared Technology, 2022, 44(12): 1293-1300. http://hwjs.nvir.cn/article/id/48843dec-a48b-468f-b743-4a00c345f406
[7] 雷大江, 杜加浩, 张莉萍, 等. 联合多流融合和多尺度学习的卷积神经网络遥感图像融合方法[J]. 电子与信息学报, 2022, 44(1): 237-244. Doi: 10.11999/JEIT200792. LEI Dajiang, DU Jiahao, ZHANG Liping, et al. Multi-stream architecture and multi-scale convolutional neural network for remote sensing image fusion [J]. Journal of Electronics & Information Technology, 2022, 44(1): 237-244. Doi: 10.11999/JEIT200792.
[8] 马梁, 苟于涛, 雷涛, 等. 基于多尺度特征融合的遥感图像小目标检测[J]. 光电工程, 2022, 49(4): 49-65. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202204005.htm MA Liang, GOU Yutao, LEI Tao, et al. Small object detection based on multi-scale feature fusion using remote sensing images[J]. Opto-Electron Eng, 2022, 49(4): 49-65. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC202204005.htm
[9] 钱金卓, 马骏, 李峰, 等. 面向CMOS遥感相机的多曝光图像融合方法[J]. 遥感信息, 2022, 37(4): 51-57. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXX202204008.htm QIAN Jinzhuo, MA Jun, LI Feng, et al. Multi-exposure image fusion method for CMOS remote sensing camera [J]. Remote Sensing Information, 2022, 37(4): 51-57. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXX202204008.htm
[10] LI Shutao, KANG Xudong, HU Jianwen. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2864-2875. Doi: 10.1109/TIP.2013.2244222.
[11] Shreyamsha Kumar B K. Image fusion based on pixel significance using cross bilateral filter[J]. Signal Image Video Process, 2015, 9(5): 1193-1204. Doi: 10.1007/s11760-013-0556-9.
[12] ZHAN K, XIE Yuange, MIN Yufang. Fast filtering image fusion[J]. J. Electron. Imaging, 2017, 26(6): 063004. Doi: 10.1117/1.JEI.26.6.063004.
[13] LI Hui, WU Xiaojun, Tariq S Durrani. Infrared and visible image fusion with ResNet and zero-phase component analysis[J]. Infrared Physics & Technology, 2019, 102: 1030390. Doi: 10.1016/j.infrared.2019.-103039.
[14] TAN Wei, Thitn W, XIANG P, et al. Multi-modal brain image fusion based on multi-level edge-preserving filtering[J]. Biomedical Signal Processing and Control, 2021, 64: 102280. Doi: 10.1016/j. bspc.2020.102280.
[15] YIN Hui, GONG Yuanhao, QIU Guoping. Side window guided filtering[J]. Signal Process, 2019, 165: 315-330. Doi: 10.1016/j.sigpro. 2019.07.026.
[16] LI Xiaosong, ZHOU Fuqiang, TAN Haishu, et al. Multimodal medical image fusion based on joint bilateral filter and local gradient energy[J]. Information Sciences, 2021, 569: 302-325.
[17] LI Hui, WU Xiaojun. DenseFuse: a fusion approach to infrared and visible images [J]. IEEE Trans. Image Process, 2019, 28(5): 2614-2623. Doi: 10.1109/TIP.2018.2887342.
[18] Toet A. TNO Image Fusion Dataset[EB/OL]. [2022-10-30]. http://figshare.com/articles/-TNO_Image_Fusion_Dataset/1008029.
[19] Xydeas C S, Petrovic V. Objective image fusion performance measure [J]. Electron. Lett, 2000, 36(4): 308-309. Doi: 10.1109/ICCV.2005.175.
[20] Aslantas V, Bendes E. A new image quality metric for image fusion: the sum of the correlations of differences[J]. AEU- Int. J. Electron. Commune, 2015, 69(12): 1890-1896. Doi: 10.1016/j.aeue.2015.09.004.
-
期刊类型引用(1)
1. 张晗,王强龙,徐志文,刘震宇. 某光学测量平台的车载运输隔振设计与测试. 长春理工大学学报(自然科学版). 2021(04): 7-12 . 百度学术
其他类型引用(1)