Simulation of Infrared Images at Different Heights and Atmospheric Modes
-
摘要:
本文以飞机平台的红外图像为数据源,研究了不同大气模式下成像高度对红外仿真图像的影响,推导了随热像仪成像高度变化的辐射亮度计算公式。分别采用MODTRAN和LOWTRAN两种大气辐射传输模型进行不同高度的红外图像大气修正,并对所得仿真数据进行了分析比较得出:在高度低于20 km时,同种大气模式下两种模型仿真数据接近,误差不大,都很理想;在高于20 km时,LOWTRAN模型仿真数据参考价值不大,MODTRAN模型结果更接近实际情况、更实用。
Abstract:The atmosphere and imaging height directly affect the infrared image quality of thermal imagers. Using the infrared image of an aircraft platform as the data source, infrared simulation images at different heights and atmospheric modes were studied, and a simulation calculation formula for the height of the thermal imager was derived. By selecting different atmospheric modes, examining MODTRAN and LOWTRAN atmospheric radiation transmission models for infrared image atmospheric correction at different heights, and analyzing and comparing the obtained simulation data, it is concluded that when the distance is less than 20 km, the simulation data of the two models in the same atmospheric mode are close and that the error is small, which is ideal. When the distance was greater than 20 km, the reference value of the LOWTRAN model simulation data was small, and the results of the MODTRAN model were closer to the actual situation and therefore more practical.
-
Keywords:
- simulation /
- thermal infrared radiation /
- atmospheric mode
-
0. 引言
随着电子技术的迅速发展,CMOS相机由于其低成本、高成品率和低制作难度等优势,使成像设备应用范围不断扩大,这也使得图像数据呈现爆炸式的增长趋势。然而,在实际应用中,成像条件并不总是理想的。在医疗领域中,内窥镜容易受到光源干扰和人体组织复杂性影响,导致图像对比度低、光照不均匀、细节模糊[1];在安防监控领域,夜晚自然光照强度大幅降低,使监控相机所得到的图像细节难以辨认[2];在交通驾驶领域,车牌常常遭受光照、天气和拍摄位置等因素的干扰,导致车牌图像信息模糊不清[3-4]。因此,在微光图像亮度提升的同时保留图像细节信息就显得尤为重要。
目前,针对微光图像增强问题,主要分为传统方法和基于深度学习的神经网络方法。
传统方法有灰度变换方法、基于直方图均衡化方法、Retinex方法和频域处理方法。灰度变换方法[5]通过调整像素的灰度值分布和动态范围来增强图像。基于直方图均衡化方法[6]通过调整图像的灰度级分布来提高图像的对比度和亮度。Retinex方法[7]将图像分解为照射分量和反射分量,通过增强照射图以提高图像的亮度。频域处理方法[5]先将图像转换到频率域进行处理,再逆向转换回空间域。然而,这些方法或者只关注提高图像亮度,忽视了对原始细节信息的提取,或者对图像细节的恢复效果不尽人意。
基于深度学习的神经网络方法有RetinexNet、LLCNN、EGAN等。RetinexNet通过估计光照图以调整光照分量来增强微光图像[8]。LLCNN通过卷积神经网络学习微光图像的特征,并改进局部对比度来进行微光图像的增强[9]。EGAN通过生成对抗网络和自监督机制以实现对微光图像的增强[10]。尽管神经网络相对传统方法在亮度提升和细节恢复方面具有优势,但目前的处理方法仍然更加注重图像亮度和对比度的提高,并没有引入专门的细节保留模块。
针对上述问题,本文提出了一种细节保留的微光图像增强方法,该方法在经过滤波之后求取原图像的基本层与细节层,基本层用于提高原图像的亮度,细节层用于保留原图像纹理细节,最后将两个图层进行融合得到增强的图像。
1. 细节保留与亮度融合算法
该算法的框架流程如图 1所示。为了防止噪声对微光图像增强的影响,输入的低照度图像的R、G、B三个通道都采用自适应空间滤波。将经过滤波处理后的图像分为两步处理,第一步根据粗照度和使用双边滤波估计的光照分量计算原始图像的细节;第二步将图像从RGB颜色空间转换到HSV颜色空间,并使用第一步得到的光照分量代替V通道,同时使用改进的对数变换作为幂值对光照分量使用伽马校正和伽马先验校正,然后通过Alpha融合算法将二者与光照分量融合为一个新的亮度通道。将细节融合进新的亮度通道后再将图像从HSV颜色空间转换到RGB颜色空间。
1.1 自适应滤波
对于RGB图像中的每个原始通道,使用分步滤波方法进行处理。先对相关噪声进行过滤,再对不相关噪声进行滤除。由于相邻信号之间存在相关性,图像传感器的读出电路会对相邻信号进行干扰,从而引入条纹噪声和色斑噪声即相关噪声。不相关噪声通常表现为随机噪声和均匀噪点,其来源主要是暗电流和量化噪声[11]。两种噪声的抑制采用公式(1):
$$\begin{aligned} & x^{\prime}(i, j)=\frac{\sigma \times x(i, j)+\bar{x}^2}{\sigma+\bar{x}+\varepsilon} \\ & p(i, j)=n(i, j) \times x^{\prime}(i, j)+(1-n(i, j)) \times x(i, j) \end{aligned} $$ (1) 式中:x′(i, j)为相关噪声抑制结果;p(i, j)为不相关噪声抑制结果即最终滤波结果;x(i, j)、x和σ分别表示为窗口W的像素值、均值和方差;ε为一个极小值;n(i, j)为二值噪声矩阵,用于指明窗口W中的不相关噪声的位置,通过比较窗口W中每个像素与窗口的误差中值获得。
滤波前后结果如图 2所示,图(a)为无滤波增强图像,图(b)为滤波后的增强图像。无滤波时,红圈中的暗区增强后会出现密集的黑点,经过滤波后黑点基本消失,且图像变得光滑。
1.2 细节提取
本文的细节提取算法是受到Retinex算法启发而来。Retinex算法是一种常用的图像增强算法,在算法中通常需要估计图像的光照分量,而光照分量包含了图像的边缘和细节信息。为了从光照分量中提取出图像的细节信息,需要在最大通道上估计出粗光照和光照分量。最大通道即R、G、B通道的最大值,由公式(2)确定:
$$ L(i, j)=\max\limits_{c \in(R, G, B)} I^c(i, j)$$ (2) 式中:L(i, j)为原始图像在点(i, j)处的3个通道最大值,IC(i, j)为原始图像。假设局部图像块中的光照是恒定的,粗光照则是最大通道的扩展即一个图像块中的最大光照强度应该具有近似相同的照度值。为了克服在光照边缘处由于光照不恒定而带来的块效应,使用公式(3)在估计粗光照的同时保持边缘[12]:
$$ L^{\mathrm{e}}(i, j)=\frac{\sum\limits_{(i, j) \in W} \eta(i, j) \times g(i, j) \times L^i(i, j)}{\sum\limits_{(i, j) \in W} \eta(i, j) \times g(i, j)}$$ (3) 式中:Lθ(i, j)为保持边缘的粗光照;Li(i, j)为粗光照;η(i, j)为阶跃函数;g(i, j)为类值域核函数。相比最大通道,粗光照更加接近真实照明结果。Li(i, j)、η(i, j)和g(i, j)由公式(4)分别计算:
$$ \begin{aligned} & L^i(i, j)=\max _{c \in(R, G, B)}\left(\max _{(i, j) \in W} I^c(i, j)\right) \\ & \eta(i, j)= \begin{cases}1 & L^i(i, j)-L(i, j) \geq 0 \\ 0 & L^i(i, j)-L(i, j)<0\end{cases} \\ & g(i, j)=\mathrm{e}^{-\frac{\left|L^i(i, j)-2 \times L(i, j)\right|}{2 \sigma^2}} \end{aligned}$$ (4) 光照分量的估计采用双边滤波器来实现,它能在平滑纹理的同时保持边缘信息。双边滤波器估计的光照分量由公式(5)确定:
$$ \begin{aligned} & L^{\mathrm{b}}(i, j)=\frac{1}{W} \sum W_{\mathrm{s}} \times W_{\mathrm{r}} \times I(i, j) \\ & W_{\mathrm{s}}=\exp \left(-\frac{(i-k)^2+(j-l)^2}{2 \sigma_{\mathrm{s}}^2}\right) \\ & W_{\mathrm{r}}=\exp \left(-\frac{(I(i, j)-I(k, l))^2}{2 \sigma_{\mathrm{r}}^2}\right) \\ & W=\sum W_{\mathrm{s}} \times W_{\mathrm{r}} \end{aligned}$$ (5) 式中:Lb(i, j)为估计的光照分量;W为权重;Ws为空间域核函数;Wr为值域核函数;(i, j)为窗口Ω中的某像素坐标;I(i, j)为对应的像素;(k, l)为窗口Ω中值的坐标,I(k, l)为中值。
图 3是提取出的粗光照与光照分量,它们与原图的灰度图相比,整体亮度稍亮。
由估计的光照分量和粗光照得到的粗细节层如公式(6):
$$D_{\text {int }}(i, j)=\frac{L^{\mathrm{b}}(i, j)}{L^{\mathrm{e}}(i, j)+\varepsilon}$$ (6) 式中:Dint(i, j)为提取的细节;ε是一个极小值。粗细节层包含了一些冗余细节和噪声还不能用于后续细节融合,本文在此基础上加入了调制因子d以减少上述缺点。
$$ d=\frac{D_{\mathrm{std}}}{D_{\mathrm{men}}}$$ (7) 式中:Dstd和Dmen是粗细节层的方差和均值。
如图 4所示,加入调制因子d前后的细节层为图(a)和图(c),分别与增强的亮度通道融合后的图像为图(b)和图(d)。从图(b)和图(d)可以看出加入调制因子d后图中物体边缘更加平滑,黑边消失。
在背景虚化的微光图像上使用本文细节层算法进行图像增强可能会导致增强后的图像出现马赛克现象。为了解决这个问题,可以选择使用高斯滤波算法对细节层进行模糊处理,从而减弱这种现象,或者去马赛克算法消除。在实际应用中,需要根据具体情况选择合适的核大小来进行高斯滤波处理,并且也可以针对性地调整去马赛克算法的参数以达到更好的效果。
1.3 亮度增强
本文将对经过滤波处理的RGB图像进行HSV颜色空间转换,并使用双边滤波估算出的光照分量来替代原始V通道以实现图像亮度增强。先使用自适应伽马校正和伽马先验校正对光照分量进行预处理,再将二者校正后的图像与光照分量通过Alpha算法进行融合。
原本的伽马校正先验公式的作用是图像去噪和去雾,根据文献[13],本文使用伽马先验校正增强微光图像的亮通道。自适应伽马校正和伽马先验校正公式定义如下:
$$ \begin{aligned} & L^{\mathrm{gc}}(i, j)=L^{\mathrm{b}}(i, j)^{s(i, j)} \\ & L^{\mathrm{gcp}}(i, j)=1-\left(1-L^{\mathrm{b}}(i, j)\right)^{\frac{1}{s(i, j)}} \end{aligned}$$ (8) 式中:Lgc(i, j)为伽马校正结果;Lgcp(i, j)为伽马先验校正结果;Lb(i, j)为归一化的值;s(i, j)为改进后的对数变换,这里作为校正公式的幂。经过对数变换后,图像的亮度值会发生反转即暗处的像素值将会变得更大,而亮处的像素值则会变得更小,再将对数变换的结果作为伽马校正和伽马先验校正的幂,可以使淹没在黑暗中的细节暴露出来。本文对数变换公式如下:
$$s(i, j)= \begin{cases}\frac{\log \left(\operatorname{men}+L^{\mathrm{b}}(i, j)\right)}{\log \left(\operatorname{std}^c\right)}+\mathrm{std} & \operatorname{med}>\mathrm{std} \\ \frac{\log \left(\operatorname{men}+L^{\mathrm{b}}(i, j)\right)}{\log \left(\operatorname{std}^c\right)}+\text { med } & \operatorname{med} \leq \operatorname{std}\end{cases}$$ (9) 式中:s(i, j)为对数变换结果;men、med和std分别为光照分量的均值、中值和方差;c为幂值,用以控制对数变换后图像数值的大小即反转后图像的亮度。不同图像的c值可按下式取值:
$$c= \begin{cases}\frac{\text { med }}{\text { immse } \times \text { men }} & \text { med }>\text { immse } \\ \frac{\text { men }}{\text { immse } \times \text { med }} & \;\;0.025 <\text { med } \leq \text { immse } \\ \frac{\text { std }+ \text { immse }}{\text { men }+ \text { med }} & \text { med } \leq 0.025, \text { std }>\text { med } \\ \frac{\text { med }+ \text { immse }}{\text { std }+ \text { med }} & \text { med } \leq 0.025, \text { std }<\text { med }\end{cases}$$ (10) 式中:immse为光照分量的均方误差。
Alpha融合算法是在原本的图像通道外重新定义了第四通道即Alpha通道,该通道反映了图像的透明度信息。在将前景图像叠加到背景图像的过程中,改变Alpha通道的值可使新图像既包含前景图像又包含背景图像[14]。本文通过修改原先两图像的Alpha融合算法得到了适用于三图像的Alpha融合算法,公式如下:
$$V=\frac{m_{\mathrm{b}} \times L^{\mathrm{b}}+m_{\mathrm{gc}} \times L^{\mathrm{gc}}+m_{\mathrm{g}} \times L^{\mathrm{gcp}}}{m_{\mathrm{b}}+m_{\mathrm{gc}}+m_{\mathrm{gcp}}}$$ (11) 式中:V为融合后的亮度通道;mb、mgc、mgcp分别为光照分量、伽马校正和伽马先验校正归一化后的均值,以此来代表各自图像的透明度。
亮度通道增强过程如图 5所示,原图(a)经过图(b)的对数曲线处理后,其图像亮度反转为图(c)。以图(c)的值作为幂值,在经过伽马校正和伽马先验校正后得到图(d)和(e)。相比于原图,这两幅图像的亮度得到了明显提高,其中图(d)的亮度提高的更多。图(a)、(d)和(e)被融合成图(f),其亮度在(d)和(e)之间。该融合方式可以防止单独使用图(d)时带来的过曝光情况,同时也能够防止单独使用图(e)时亮度增强不足的情况。
1.4 细节融合
在上一节中,使用Alpha融合算法来提高图像的亮度,但图像细节并不能很好地保留,反而会导致增强后的图像变得模糊、纹理不清晰。因此,为了在提高图像亮度的同时保留其细节,本文将细节层与增强后的亮度通道进行融合。如图 6所示,经过融合后的图像在提高亮度的同时细节也得到了很好的保留。融合公式如下:
$$ V^{\mathrm{d}}=V \times D$$ (12) 式中:Vd为融合细节层的亮度通道;V为增强后的亮度通道;D为加入调制因子的细节层。
2. 实验结果与分析
2.1 细节保留实验
为了评估本文算法在保留图像细节方面的能力,对LOL数据集[15]中的图像进行了处理。首先,获取了经过亮度增强但没有融合细节的图像,以及融合了细节的亮度增强图像。然后,分别计算了这两种图像的平均梯度(AG)[16]以及完全增强图像的信息熵(Entropy)[15]。AG和Entropy指标可以反映图像的细节程度,数值越大表示图像中细节越丰富。因此,通过计算AG和Entropy指标,可以量化算法对图像细节的保留能力。
图 7展示了LOL数据集中部分图像的AG和Entropy指标计算结果,而表 1则展示了这些图像中AG和Entropy的提升百分比。对于其他图像,其计算结果与图中所示相一致。从图 7可以明显观察到以下情况:融合了细节的亮度增强图像的AG值普遍高于没有融合细节的亮度增强图像,同时融合了细节的完全增强图像的Entropy值普遍高于原始图像。通过表 1可以看出,融合了细节的图像的AG和Entropy值均有显著的提升。这两个指标的变化表明,融合了细节的增强图像具备更为丰富的信息内容和更加充分的细节展现。
表 1 不同图像的AG和Entropy提升Table 1. AG and Entropy boosts for different images% Image 1 Image 2 Image 3 Image 4 Image 5 Image 6 Image 7 Image 8 Image 9 Image 10 Image 11 Image 12 Image 13 Image 14 Improvement of AG 21.81 26.30 23.02 27.10 32.65 29.59 19.91 46.67 31.70 44.09 45.13 21.71 21.00 17.75 Improvement of entropy 31.21 29.61 43.62 35.46 37.44 25.95 24.11 37.02 27.29 36.01 34.96 36.91 36.9 35.93 2.2 微光图像增强实验
为了评估本文算法对整体微光图像处理的效果,对不同类型的图像使用对比度受限的自适应直方图均衡化算法(contrast limited adaptive histogram equalization, CLAHE)[17]、带色彩恢复的多尺度视网膜增强算法(multi-scale Retinex with color restoration MSRCR)[18]、基于照度估算的方法(low-light image enhancement, LIME)[19]、用于增强低光照视频的快速高效算法(Dong)[20]、微光图像增强的仿生多重曝光融合算法(bio-inspired multi-exposure fusion, BIMEF)[21]进行处理,并使用主流的图像评价指标进行评价。
2.2.1 无参考图实验
本文使用ExDark数据集[22-23]进行无参考图实验。该数据集包含了7千多张自然环境中的微光图像。实验中使用上述算法对该数据集中的图像进行处理,图 8所示的是不同类型的微光图像的部分处理结果。
经过CLAHE处理后的图像整体亮度增强不足,一些细节还隐藏在黑暗中。经过MSRCR处理的图像,图像亮度不恒定,会出现某些图像亮度足够,某些图像亮度不足的情况。经过LIME处理后的图像亮度过曝,导致暗区过增强呈现黑块。经过Dong处理的图像,边缘黑边严重。经过BIMEF处理的图像亮度提升明显。本文算法处理后的图像,亮度适中,无黑边现象。
为了进一步评价本文算法对无参考图的处理效果,使用BRISQUE[24]、Entropy和NRSS[15, 25]三个指标进行评价。BRISQUE反应了图像的失真程度或图像的视觉质量;Entropy反应了图像的信息丰富度即图像的边缘、纹理和细节特征;NRSS(no-reference structural sharpness)反应了图像的模糊程度。
从表 2可以看出,除Boat图像的BRISQUE值大于MSRCR算法,其他均小于其他算法,表明经过本文处理的图像失真小。因LIME算法处理后的图像过曝,暴露出了更多的细节,故Entropy值小于LIME算法,但与BIMEF和Dong相近甚至部分图像的Entropy值超过,且大于CLAHE和MSRCR算法,表明本文算法可以较好的保留图像的边缘细节。NRSS值除Bus图像小于LIME算法,其他均高于其他算法,表明经过本文处理的图像具有很好的清晰度。
表 2 不同微光图像的定量分析Table 2. Quantitative analysis of different low-light imagesCLAHE MSRCR LIME Dong BIMEF Ours People BRISQUE 26.9512 26.9512 28.2351 40.9813 24.0077 17.234 Entropy 6.6333 6.6333 7.633 7.2279 6.8141 7.2535 NRSS 1.0126 1.0126 1.0023 0.9853 1.0053 1.0167 Table BRISQUE 26.5168 24.3462 34.0021 43.3599 29.8545 15.2473 Entropy 7.5454 7.3465 7.8242 7.753 7.412 7.7911 NRSS 0.9514 0.9539 0.9736 0.9714 0.9831 0.9963 Chair BRISQUE 26.8267 21.4651 29.4617 28.5589 39.0617 16.9667 Entropy 6.4688 5.8495 7.1195 6.4419 6.9101 6.8246 NRSS 1.0086 0.9745 0.9848 0.992 0.9935 1.0208 Cat BRISQUE 37.1413 40.3425 36.7332 36.7464 37.1779 31.0763 Entropy 4.8146 4.5755 4.8567 4.8433 5.4237 5.0891 NRSS 0.9982 0.9703 0.9831 1.0012 1.0057 1.0069 Bus BRISQUE 22.9972 16.9942 21.7106 19.599 27.64 5.8177 Entropy 7.1323 6.1629 7.7195 7.2287 7.5483 7.5326 NRSS 0.9568 0.9758 1.0009 0.9491 0.9533 0.9928 Boat BRISQUE 28.4463 24.3631 34.4487 24.0482 43.4573 27.6673 Entropy 7.3459 6.2219 7.3408 7.022 7.467 7.452 NRSS 0.971 0.9803 0.9915 0.9867 1.0069 1.0231 2.2.2 有参考图实验
本文使用BrighteningTrain数据集[26]进行有参考图实验。该数据集包含了1000张真实场景拍摄的微光图像和对应的正常亮度图像。实验中使用上述算法对该数据集中的图像进行处理,并选取不同类型的微光图像的部分处理结果进行展示,结果如图 9所示。
经CLAHE处理后的图像亮度太暗,存在少量偏色问题;经MSRCR处理的图像亮度一致性差,不同类型图像之间亮度存在过亮和较暗情况,同一张图像也会存在过曝和过暗情况;经LIME处理后的图像亮度过度曝光导致整体泛白,且色彩饱和度过高,纹理过于平滑;经Dong处理后的图像虽然提高了亮度,但图像边缘黑边明显,人眼视觉感受差;经BIMEF处理的图像亮度有所提高,但还低于正常图像;本文算法处理的图像亮度最接近原图,一致性好,且保留了部分细节。
鉴于BRISQUE、Entropy以及NRSS评价指标无法利用参考图像进行图像质量评估,为了更全面地评价本文所提算法的性能表现,采用能够利用参考图像的评价指标,即结构相似性(structural similarity, SSIM)和峰值信噪比(peak signal-to-noise ratio, PSNR)[27],作为衡量标准,对上述不同算法处理后的图像质量进行评估。PSNR用于度量微光图像经过处理后的噪声水平;而SSIM用于衡量图像的相似程度,该指标可反应不同算法处理后的图像品质。
从表 3可看出,本文算法的SSIM指标均高于其他算法,表明经过本文算法处理的图像更加接近原始正常亮度图像;PSNR指标高于CLAHE、MSRCR、LIME算法,但对于Scenery图像低于Dong和BIMEF算法,对于Person图像低于BIMEF算法,表明本文算法可以有效抑制微光图像增强后的噪声。
表 3 不同微光图像的SSIM和PSNR测试结果Table 3. SSIM and PSNR test results for different low-light imagesCLAHE MSRCR LIME Dong BIMEF Ours Building SSIM 0.683 0.69 0.913 0.783 0.828 0.918 PSNR 8.059 17.284 19.619 17.280 16.946 25.093 Scenery SSIM 0.649 0.515 0.712 0.740 0.791 0.787 PSNR 13.037 13.306 13.682 19.753 22.818 17.084 Animal SSIM 0.475 0.528 0.926 0.813 0.869 0.939 PSNR 8.237 15.084 18.800 15.381 20.507 22.449 Plant SSIM 0.869 0.567 0.756 0.936 0.904 0.965 PSNR 16.359 11.887 13.482 24.01200 20.824 26.833 Person SSIM 0.562 0.569 0.893 0.854 0.769 0.922 PSNR 10.451 12.770 16.320 17.801 21.142 19.917 2.3 算法运行时间
为了测试不同算法的处理速度,本文从无参考图和有参考图的数据集里选择不同分辨率的微光图像进行实验,实验结果如表 4所示。CLAHE方法因图像分块均衡化、每小块内部操作简单故运行时间最短,且运行时间对图像大小的增加表现出极高的鲁棒性,即便图像尺寸显著扩大,其运行时间的增幅亦相当有限;与CLAHE方类似,BIMEF方法在局部区域进行曝光融合操作且有选择性地对微光区域进行处理,故运行时间快;MSRCR方法由于其多尺度高斯滤波操作而具有较高计算复杂度;Dong算法将微光图像增强问题转化成了暗通道去雾问题,又因低光照图像的反转图,可以看成是雾很严重的情况,在使用暗通道去雾算法求取反转图时需要更多的计算时间;LIME方法需要迭代优化来估计图像的光照图从而增加了算法的计算复杂度和运行时间,导致运行时间最长;本文算法因含有滤波等操作导致运行时间低于CLAHE和BIMEF方法,但又不含迭代计算从而使运行时间快于其他方法。
表 4 不同算法的运行时间对比Table 4. Comparison of running times of different algorithmss Resolution 384×384 640×480 800×600 1280×720 1920×1080 CLAHE 0.023 0.047 0.058 0.069 0.135 MSRCR 0.225 0.297 0.379 0.683 1.344 LIME 1.347 3.155 5.090 7.267 29.729 Dong 1.108 2.346 3.567 6.892 15.610 BIMEF 0.076 0.166 0.215 0.434 0.840 Ours 0.100 0.205 0.329 0.666 1.873 3. 结论
为避免微光图像增强过程中出现细节丢失导致图像信息恢复不足,本文提出了一种细节保留与亮度融合的微光图像增强算法。在微光图像亮度增强的同时融合细节层以保留原始图像的纹理信息。实验结果表明,融合了细节层的图像在AG方面可以提升49%,信息熵可以提升43%。无参考图情况下,增强后的图像Entropy值可达7.7911,BRISQUE值可达5.8177,表明本文算法很好地保留了原始图像的细节。有参考图对比时,增强后的图像SSIM值达到0.965。表明增强后的图像与原图之间具有最高的相似度,同时图像失真也最小。
-
表 1 20 km高度的平台仿真结果
Table 1 Simulation results of 20 km platform
Airborne image radiation luminance data/(W·cm-2·sr-2) Simulation platform image radiation brightness data /(W·cm-2·sr-2) Mid-latitude winter Tropical atmosphere (MODTRAN) (LOWTRAN) (MODTRAN) (LOWTRAN) 33.62 28.92 28.35 25.8 25.41 33.64 28.93 28.37 25.83 25.43 33.62 28.92 28.35 25.80 25.41 33.64 28.93 28.37 25.83 25.43 33.95 29.21 28.62 26.09 25.68 33.9 29.15 28.58 26.04 25.54 33.93 29.2 28.6 26.07 25.67 33.95 29.21 28.62 26.09 25.68 33.06 28.61 28.33 25.52 25.46 33.04 28.59 28.31 25.47 25.43 33.11 28.69 28.37 25.64 25.6 33.12 28.71 28.39 25.65 25.62 Relative error 1.67% 1.12% 表 2 100 km高度的平台仿真结果
Table 2 Simulation results of 100 km platform
Airborne image radiation luminance data/(W·cm-2·sr-2) Simulation platform image radiation brightness data /(W·cm-2·sr-2) Mid-latitude winter Tropical atmosphere (MODTRAN) (LOWTRAN) (MODTRAN) (LOWTRAN) 33.62 25.26 28.33 22.81 25.4 33.64 25.61 28.36 22.83 25.43 33.62 25.26 28.33 22.81 25.4 33.64 25.61 28.36 22.83 25.43 33.95 26.58 28.59 23.09 25.66 33.9 26.55 28.54 23.04 25.54 33.93 26.57 28.57 23.07 25.65 33.95 26.58 28.59 23.09 25.66 33.06 24.67 28.32 22.18 25.46 33.04 24.61 28.30 22.16 25.43 33.11 24.70 28.38 22.34 25.61 33.12 24.73 28.41 22.35 25.63 Relative error 10.10% 11.00% -
[1] 肖甫, 吴慧中, 肖亮, 等. 地面坦克目标红外热成像物理模型研究[J]. 系统仿真学报, 2005(11): 2577-2579, 2585. DOI: 10.3969/j.issn.1004-731X.2005.11.002 XIAO Fu, WU Huizhong, XIAO Liang, et al. Research on infrared imaging model of land tank target[J]. Journal of System Simulation, 2005(11): 2577-2579, 2585. DOI: 10.3969/j.issn.1004-731X.2005.11.002
[2] 姚涛, 李一凡. 场景红外成像仿真原理和应用[J]. 计算机仿真, 2004, 21(1): 96-98, 135. DOI: 10.3969/j.issn.1006-9348.2004.01.035 YAO Tao, LI Yifan. Principle and application of infrared imaging simulation for scene[J]. Computer Simulation, 2004, 21(1): 96-98, 135. DOI: 10.3969/j.issn.1006-9348.2004.01.035
[3] 韩涛, 朱学光. 一种计算大气透过率的方法[J]. 红外技术, 2002, 24(6): 51-53. DOI: 10.3969/j.issn.1001-8891.2002.06.012 HAN Tao, ZHU Xueguang. A method of calculating the atmosphere transmissibility[J]. Infrared Technology, 2002, 24(6): 51-53. DOI: 10.3969/j.issn.1001-8891.2002.06.012
[4] 王兵学, 张启衡, 陈昌彬, 等. 凝视型红外捜索跟踪系统的作用距离模型[J]. 光电工程, 2004, 31(7): 8-11. WANG Bingxue, ZHANG Qiheng, CHEN Changbin, et al. A mathematical model for operating range of a staring IR search and track system[J]. Opto-Electronic Engineering, 2004, 31(7): 8-11.
[5] 贾庆莲, 乔彦峰, 邓文渊. 周视搜索系统对点目标的作用距离分析[J]. 光学学报, 2009, 29(4): 937-943. JIA Qinglian, QIAO Yanfeng, DENG Wenyuan. Analysis for point- target detection range of panoramic searching system[J]. Acta Optica Sinica, 2009, 29(4): 937-943.
[6] 张乐, 梁冬明, 姚梅, 等. 红外搜索跟踪系统作用距离等效折算[J]. 红外与激光工程, 2013, 42(1): 26-30. ZHANG Le, LIANG Dongming, YAO Mei, et al. Equivalent calculation of operating range of IRST[J]. Infrared and Laser Engineering. 2013, 42(1): 26-30.
[7] ZHAO Y, WU P, SUN W. Calculation of infrared system operating distance by spectral bisection method[J]. Infrared Physics & Technology, 2014, 63(3): 198-203.
[8] 江飞虹, 吴文贤, 石岩. 机载热红外图像特征的提取与分析[J]. 烟台大学学报(自然科学与工程版版), 2007(4): 295-298. JIANG Feihong, WU Wenxian, SHI Yan. Features extraction and analysis from airborne thermal infrared image[J]. Journal of Yantai University (Natural Science and Engineering Edition), 2007(4): 295-298.
[9] 李金萍. 机载红外图像转换生成卫星仿真图像的大气修正方法研究[J]. 激光与红外, 2023, 53(1): 75-78. DOI: 10.3969/j.issn.1001-5078.2023.01.011 LI Jinping. Research on atmospheric correction method of airborne infrared image conversion to satellite simulation image[J]. Laser & Infrared, 2023, 53(1): 75-78. DOI: 10.3969/j.issn.1001-5078.2023.01.011
[10] 刘其涛. 大气对红外热像仪成像仿真的影响[J]. 红外, 2006(1): 1-4. LIU Qitao. Influence of atmosphere on simulation of infrared thermal-imager imaging[J]. Infrared, 2006(1): 1-4.
[11] 刘美玲, 明冬萍. 遥感地学应用实验教程[M]. 北京: 科学出版社, 2018. LIU Meiling, MING Dongping. Experimental Course on Remote Sensing Geoscience Applications[M]. Beijing: Science Press, 2018.
[12] 田杰. 目标红外辐射特征与建模仿真技术研究[D]. 南京: 南京理工大学, 2016. TIAN Jie. Research on Target Infrared Radiation Characteristics and Modeling and Simulation Technology[D]. Nanjing: Nanjing University of Science and Technology, 2016.
[13] 孟凡斌, 郑丽. 基于LOWTRAN7的红外大气透过率计算方法[J]. 光电技术应用, 2009, 24(3): 29-32, 66. DOI: 10.3969/j.issn.1673-1255.2009.03.008 MENG Fanbin, ZHENG Li. LOWTRAN7-based calculation method of IR transmittance in the atmosphere[J]. Electro-Optic Technology Application, 2009, 24(3): 29-32, 66. DOI: 10.3969/j.issn.1673-1255.2009.03.008