基于JRM的战场环境红外图像实时生成

钟国雳, 廖守亿, 杨薪洁

钟国雳, 廖守亿, 杨薪洁. 基于JRM的战场环境红外图像实时生成[J]. 红外技术, 2024, 46(2): 183-189.
引用本文: 钟国雳, 廖守亿, 杨薪洁. 基于JRM的战场环境红外图像实时生成[J]. 红外技术, 2024, 46(2): 183-189.
ZHONG Guoli, LIAO Shouyi, YANG Xinjie. Real-Time Infrared Image Generation of Battlefield Environment Based on JRM[J]. Infrared Technology , 2024, 46(2): 183-189.
Citation: ZHONG Guoli, LIAO Shouyi, YANG Xinjie. Real-Time Infrared Image Generation of Battlefield Environment Based on JRM[J]. Infrared Technology , 2024, 46(2): 183-189.

基于JRM的战场环境红外图像实时生成

详细信息
    作者简介:

    钟国雳(1998-),男,四川成都人,硕士研究生,主要研究方向为导航制导与仿真。E-mail:1135763789@qq.com

    通讯作者:

    廖守亿(1974-),男,教授,重庆人,博士生导师,主要研究方向为红外成像制导半实物仿真,复杂系统建模与仿真的研究。E-mail:6127725@qq.com

  • 中图分类号: TP391.9

Real-Time Infrared Image Generation of Battlefield Environment Based on JRM

  • 摘要: 为了满足新一代红外成像目标仿真系统的性能需求,生成逼真的战场环境红外图像供红外成像制导武器进行半实物仿真试验,研究了一种基于JRM的战场环境红外图像生成方法。首先利用3DSMAX建立目标的三维模型,并从导引头视场需求出发,结合目标地区的卫星影像数据与高程数据建立背景区域的三维模型;然后利用JRM的GenesisMC工具、SigSim工具和SenSim工具分别对物理材质特性及目标热源、场景红外特性、传感器特性进行建模;最后使用OSV工具实时渲染生成红外图像。实验结果表明,该方法可满足红外成像目标仿真系统的红外图像实时生成要求,具有灵活性强,效果良好等优点。
    Abstract: A method for generating infrared images in battlefield environments based on JRM was developed to satisfy the performance requirements of a new generation of infrared-imaging target simulation systems and generate realistic infrared images of battlefield environments for infrared-imaging-guided weapons to conduct hardware-in-the-loop simulation tests. First, a three-dimensional model of the target was established using 3DSMAX. The satellite image data and elevation data of the target area were combined to establish a three-dimensional model of the background area to satisfy the requirements of the seeker's field of view. Next, JRM's Genesismc, Sigsim, and Sensim tools were used to model the physical material characteristics, target heat source, environmental characteristics, and sensor characteristics. Finally, the OSV tool was used to render the infrared image in real time. The experimental results show that the method satisfies the requirements of real-time generation of infrared images in an infrared-imaging target simulation system and has the advantages of strong flexibility and good effectiveness.
  • 煤矿井下的视频监控系统[1]是对井下工作人员和设备等目标的位置和状态等信息分析的重要手段,但是由于煤矿井下的复杂环境,使获取到的图像存在对比度低、光照不均、边缘细节模糊等问题,造成分析图像出现困难[2]。因此,对煤矿井下采集到的图像使用增强方面的预处理等技术研究具有极为重要的意义[3]。目前主流的煤矿井下的图像增强方法主要分为基于模型和深度学习两大类。

    基于模型的方法分为直方图均衡化[4]和基于Retinex[5]理论两种方法。其中,基于直方图均衡化的方法[6]容易引起图像过增强和出现曝光现象。随着技术的不断发展,图像增强研究热点逐渐转移到基于Retinex理论的方法。基于Ritinex理论和光照图估计[7]的低光照增强图像方法[8]LIME(Low-light Image Enhancement via Illumination Map Estimation),先对光照图进行处理,最后将反射图的输出作为增强结果,但容易出现过增强的现象。NPE[9](Naturalness Preserved Enhancement)在增强图像对比度的同时保持了照明的自然度,但没有考虑不同场景中照明的关系。用于图像增强的多曝光融合框架BIMEF(Bio-Inspired Multi-Exposure Fusion)[10],采用双曝光融合方法,但结果亮度过低。RRM(Structure-Revealing Low-Light Image Enhancement Via Robust Retinex Model)[11]采用基于增广Lagrange乘子的ADM(Alternating direction methods)方法,对噪声进行预测,同时估计反射图和光照图进行图像增强,但增强结果不够清晰。基于去雾的方法[12]利用了雾天拍摄的图像与低光照图像之间的反向联系来达到图像增强的效果。

    随着深度学习的飞速发展,基于深度学习的网络已被广泛应用于图像处理中。Lore等人[13]使用堆叠稀疏去噪自动编码器(A Deep Autoencoder Approach to Natural Low-light Image Enhancement,LLNet)增强图像和对图像去噪。LLCNN(A convolutional neural network for low-light image enhancement)[14]是一种基于超分辨率模型VDSR(Very Deep-Super Resolution)和残差网络ResNet的双分支残差学习网络,但其多尺度特征融合能力不足。为了克服这些困难,Wei C.等人提出一种基于Retinex理论分解的方法,建立了一个将图像分解和图像增强相结合的深度神经网络[15],将原始图像分解为光照图和反射图,但忽略了红-绿-蓝色(Red-Green-Blue, RGB)空间的三个通道的相关性,结果出现严重失真。基于深度学习的方法[16-17]虽然有一定的有效性,但需要大量的数据集,同时网络的训练也需要复杂的设备支持,其运行时间也会随着网络的大小而增加。

    针对以上煤矿井下图像增强中存在的问题,提出一种基于图像的HSV空间[18],利用相对全变分(Relative Total Variation, RTV)滤波和改进的边窗滤波(Side Window Filtering, SWF)增强V通道图像并融合的方法,实现对图像的增强。该方法在不需要大量数据集支撑的前提下,能够有效解决低光照图像边缘细节模糊、细节丢失的现象,并且在保持图像原有的色彩的同时达到增强图像的亮度和对比度细节的效果。

    由于彩色图像的光照并不与RGB模型的三通道中某一单一的通道有明确的联系,而RGB模型的三通道互相影响,相对而言,HSV模型中的三通道相对独立,且场景中的光照对图像的亮度通道V通道影响较大,针对亮度做校正方便快捷且计算简单,故本文选用在HSV空间中完成对煤矿井下低光照图像进行亮度的矫正。

    方法的整体框架如图 1所示。首先将低光照图像分为色调通道H、饱和度通道S和亮度通道V三个通道,利用RTV与SWF,对提取出来的V通道图像分别进行主要结构提取和轮廓边缘保留,之后对其进行非线性灰度拉伸以增强其对比度,非线性灰度拉伸参考了S通道图像,更好保留了图像的原结构。利用新的融合技术PCA得到增强后的V通道图像,最后将新的V通道与之前分离出来的S通道和H通道融合并由HSV空间转换到RGB空间,最后输出增强后的图像。

    图  1  基于HSV空间的煤矿下低光照图像增强方法整体框架
    Figure  1.  Overall framework of low-light image enhancement method under coal mine based on HSV space

    1)主要结构提取

    主要结构采用结构约束优化方法提取,即相对全变分(RTV)[19]的方法,RTV采用像素加窗总变差度量项ϑ和窗口固有变化度量项ς构成目标函数正则项,xy分别表示ϑς水平和垂直方向度量值,定义如式(1)和式(2):

    $$\begin{aligned} & \vartheta_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \vartheta_y(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (1)
    $$\begin{aligned} & \varsigma_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \varsigma_{\mathrm{y}}(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (2)

    式中:R(p)是以像素p为中心的矩形区域;qR(p)区域内某一点像素;ϑx(p)和ϑy(p)分别表示p在像素的xy方向加窗的总变差,其可以计算窗口R(p)的绝对空间差异,∂x和∂yxy两个方向上的偏导数,S是所得到的结构图像;式(2)是为了更好地区分出结构和纹理元素,gp, q是根据空间相关性定义权重函数${g_{p,q}} \propto \exp (( - ({x_p} - {x_q}) + ({y_p} - {y_q}))/2{\sigma ^2})$,σ为尺度因子控制权重函数分布形状,为更好地在视觉显示区域加强纹理和机构之间的区分度,结合ϑς形成了一种有效的结构纹理分解正则化器,用于图像的结构化提取,RTV的目标函数如式(3):

    $$ {L_{{\text{RTV}}}} = \mathop {\min }\limits_t \sum\limits_p {({t_p} - {{\tilde t}_p})} + \lambda \cdot (\frac{{{\vartheta _x}(p)}}{{{\varsigma _x}(p) + \varepsilon }} + \frac{{{\vartheta _y}(p)}}{{{\varsigma _y}(p) + \varepsilon }}) $$ (3)

    式中:$\tilde{t}_p$是输入图像;tp是生成的结构图像;(tp-$\tilde{t}_p$)2是保真项,确保提取的结构与输入图像结构尽量一致;λ是平衡因子,图像去除纹理效果由正则项$ \left( {\frac{{{\vartheta _x}\left( p \right)}}{{\varsigma {}_x\left( p \right) + \varepsilon }} + \frac{{{\vartheta _y}\left( p \right)}}{{\varsigma {}_y\left( p \right) + \varepsilon }}} \right) $决定,ε取一个很小的正数,避免被零除。

    2)边缘细节保留

    对V通道的边缘细节保留使用改进的边窗滤波技术(SWF)[20],SWF具有显著的边缘保持能力,并在图像平滑与结构保留纹理去除、相互结构提取等应用中达到了最先进的性能。

    基于局部的过滤器通常是根据像素的邻域来估计其输出。被处理的像素位于操作窗口的中心,而操作窗口中的其他像素与他相邻。一种常见的基于线性近似的图像滤波操作假设图像是分段线性的,并将像素近似为局部窗口上相邻像素的加权平均值:

    $$I_i^{\prime}=\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j$$ (4)

    式中:Ωi为以像素i为中心的局部窗口(支撑域),其实就是局部窗口内的像素;ωij为权重,oiIi分别为输入图像q和输出图像I在位置i的强度。

    滤波器输出与原始图像之间的差异可以表述为以下代价函数:

    $$E_i=\left\|I_i-I_2^{\prime}\right\|_2^2=\left(I_i-\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j\right)^2$$ (5)

    利用泰勒展开,证明为了使用相邻像素的线性组合重建边缘像素,相邻像素必须来自边缘的一侧。SWF技术作为一种有效的保边滤波的方法,将每个目标像素视为一个潜在的边,并在其周围生成多个局部窗口,每个窗口都将目标像素与窗口的一个边或角对齐,SWF的输出是其中一个侧窗中的邻居的线性组合,可以最好地接近目标像素。

    侧窗的定义如图 2所示,参数θ为窗与水平线的夹角,参数r为窗的半径,p∈{0, r},(x, y)是目标像素i的位置,r是一个用户定义的参数,它对于所有的侧窗都是固定的。通过改变θ和固定(x, y),可以改变窗口的方向,同时使它的一侧与i对齐。R是窗口的半径,(a)是连续情况下侧窗的定义,(b)分为左(红色矩形)和后(蓝色矩形)侧窗,(c)分为上(红色矩形)和下(蓝色矩形)侧窗,(d)分为左上(红色矩形)、右上(蓝色矩形)、左下(绿色矩形)和右下(橙色矩形)侧窗。通过在每个边窗中应用滤波核F,可以得到8个输出:

    $$I_i^{\prime \theta, \rho, r}=F\left(q_i, \theta, \rho, r\right)$$ (6)
    图  2  SWF滤波8个方向的侧窗定义图
    Figure  2.  SWF filter side window 8 direction side window definition

    保持边缘意味着想要最小化输入和输出在边缘的距离,即滤波器的输出应该与输入在边缘相同或尽可能接近。因此,我们选择与输入强度L2距离最小的侧窗输出作为最终输出:

    $$I_{\mathrm{SWF}}^{\prime}=\underset{\forall I_i^{\prime \theta, \rho, r}}{\arg \min }\left\|q_i-I_i^{\prime \theta, \rho, r}\right\|_2^2$$ (7)

    图 3所示,第一行是从低光照图像中提取的V通道图。第二行是V通道使用RTV提取的主要结构图,可以有效提取出图像的主要结构,滤波整体结构良好,保存了V通道图像的主要结构特征,但在细节方面并未得到很好的区分,所以引入SWF技术,可以更好地区分纹理和细节。第三行是V通道经过SWF提取的边缘细节图,纹理边缘保持较好。采用特征值融合的方法,使两种滤波方法结合,保存图像整体结构良好的同时,精细结构能更加平滑,更好地区分纹理和结构。对比相应的增强图像可知,本文方法增强图像对比度更高,纹理细节及边缘保持相对更好一些。

    图  3  滤波结果图
    Figure  3.  Filter results

    3)主成分分析融合

    为了充分利用RTV提取图像的主要结构和SWF保持的图像边缘细节,采用基于主成分分析(Principal Component Analysis,PCA)融合方法进行V通道融合,PCA融合是经典空间域融合方法,该方法利用主成分分解可以保留原数据之特征信息这一特点,由两源图像获取协方差矩阵及其特征值和特征向量,据此确定图像融合方法的加权系数和最终的融合图像。首先,将二维图像转化为一维向量,并由一维向量构造数据矩阵X,然后,计算X的协方差矩阵的特征向量矩阵V和相应的特征值矩阵D,据此计算相应的加权系数,最后加权融合获得优化的传输图F

    将两幅图像转换为二维向量X,对其协方差矩阵C做特征值分解,获得2×2特征向量矩阵V和特征值矩阵D,其计算如式(8):

    $$\left\{\begin{array}{l} (\boldsymbol{V}, \boldsymbol{D})=\operatorname{Eig}(\boldsymbol{C}) \\ \boldsymbol{C}=\operatorname{Cov}(\boldsymbol{X}), \boldsymbol{X}=x_1, x_2^{\mathrm{T}} \end{array}\right.$$ (8)

    式中:Cov表示协方差计算;Eig表示特征值分解操作。之后根据式(9)和式(10)计算融合权重系数。

    $$V_1= \begin{cases}V(:, 1), & \text { if } D(1,1)>D(2,2) \\ V(:, 2), & \text { otherwise }\end{cases}$$ (9)

    式中:D(i, i)表示D的对角元素的第i个元素;V(: , i)表示V的第ii=1, 2,V1表示1维元素向量。

    $$W_i=\frac{V_1(i)}{V_1(0)+V_1(1)}, \quad i=0,1$$ (10)
    $$b=\sum\limits_{i=1}^2 W_i S_i$$ (11)

    式中:Wi为加权系数;b为融合结果分量;Si为待融合的主要结构传输图和精细结构传输图。将两种结构传输图优化融合,获得增强后的V通道图。

    根据图 1所示方法框架,基于HSV空间的矿井下低光照图像增强方法实施步骤为:

    1)获取低光照图像V通道图像V

    2)求解新的V通道图像V1V2

    对获得的V通道图像V进行RTV主要结构提取,并根据S通道图像的像素值对V通道图像进行非线性灰度拉伸,得到新的V通道图像V1;同时对V通道图像V进行SWF的边缘细节提取,进行相同的非线性灰度拉伸,得到V通道图像V2

    3)合成新的V通道分量

    利用PCA融合方法进行V通道分量合成,计算融合权重系数Wi,根据式(11)融合策略,得到新的V通道分量。

    实验开展分为2类,第1类是参数分析实验,调整参数值分析不同取值对方法影响;第2类是对比实验,将对煤矿井下低光照图像进行对比分析本文提出的方法与其他增强方法的增强性能差异,增强方法中传统方法包括Dong[12]、BIMEF[10]和LIME[6],实验在8GB RAM和Windows 10操作系统的笔记本电脑上运行,软件采用MATLAB2016a;深度学习方法包括基于Retinex-Net[14]、MBLLEN(Multi-Branch Low-light Enhancement Network)[21]和Zero-DCE[22],实验在Nvidia RTX3090 GPU工作站上运行。

    本文选择了常用的3种图像质量评价指标:峰值信噪比(Peak Signal to Noise Ratio, PSNR)[23]、结构相似性(Structual Similarity, SSIM)[24]和自然图像质量评估(Natural Image Quality Evaluator,NIQE)[25]作为增强后图像的评价指标。

    1)峰值信噪比(PSNR)

    峰值信噪比用来评价两幅图像相对质量的好坏,其值越高,说明增强后的图像失真越小,质量越好。对于大小为m×n的两幅图像IO(原图和增强后的结果图像),其均方差MSE(Mean Square Error)定义为:

    $$\mathrm{MSE}=\frac{1}{m n} \sum\limits_{i=0}^{m-1} \sum\limits_{j=0}^{n-1}[I(i, j)-O(i, j)]^2$$ (12)

    则PSNR(dB)定义为:

    $$\mathrm{PSNR}=10 \cdot \lg \left(\frac{\mathrm{MAX}_I^2}{\mathrm{MSE}}\right)=20 \cdot \lg \left(\frac{\mathrm{MAX}_I}{\sqrt{\mathrm{MSE}}}\right)$$ (13)

    式中:MAX为像素最大值。

    2)结构相似性(SSIM)

    图像的结构相似性(SSIM)可以衡量两个图像的相似程度,SSIM值的大小表示更符合人眼的直观感受。

    SSIM指标的计算表达式,如式(17)所示:

    $$\operatorname{SSIM}(I, O)=\left[l(I, O)^\alpha \cdot c(I, O)^\beta \cdot s(I, O)^\gamma\right]$$ (14)

    IO分别是原图和增强结果图,将αβγ设为1,可以得到:

    $$\operatorname{SSIM}(I, O)=\frac{\left(2 \mu_I \mu_O+c_1\right)\left(2 \sigma_{I O}+c_2\right)}{\left(\mu_I^2+\mu_O^2+c_1\right)\left(\sigma_I^2+\sigma_O^2+c_2\right)}$$ (15)

    式中:μIμOσI2σO2分别为IO的均值与方差,σIOIO的协方差,c1c2为常数,避免除数为零。图像的SSIM值越大,说明两幅图像的相似度越高,也就说明增强后的图像越接近真实图像。

    3)自然图像质量评估(NIQE)

    图像的自然图像质量评估值根据测试图像在特定高斯模型(multivariate Gaussian, MVG)上的分布差异对图像的质量进行评估,通过计算测试图像与参考图像拟合参数之间的距离来衡量图像质量。第一步,将提取的36个特征采用拟合MVG模型利用最大似然估计法计算得到参数vΣ。之后再提取失真图像统计特征,进行模型拟合得到(v′, Σ ′),具体的计算公式如下:

    $$D\left(v_1, v_2, \mathit{\Sigma }_1, \mathit{\Sigma }_2\right)=\sqrt{\left(v_1-v_2\right)^{\mathrm{T}}\left(\frac{\mathit{\Sigma }_1+\mathit{\Sigma }_2}{2}\right)^{-1}\left(v_1-v_2\right)}$$ (16)

    式中:v1v2表示参考图像和测试图像的MVG模型均值;Σ1Σ2表示参考图像和测试图像的MVG模型方差矩阵。当测试图像与参考图像差距较大时,NIQE的值越大,图像质量越差。

    1)非线性灰度拉伸的参数α取值分析

    为分析非线性灰度拉伸的α取值对增强方法的影响,选用不同测试图像实验,其中测试图像S1616,S1613和S881,在不同α取值{0.3, 0.5, 0.8, 1, 1.2}的实验结果,如图 4所示。

    图  4  不同图像α值的增强结果
    Figure  4.  Enhancement results for different image α

    图 4中,第一行、第三行、第五行分别是测试图像增强后的V通道图像V′,第二行、第四行、第六行分别是最终的增强图像。从图 4可以看出,随着α取值逐渐增大,增强后的图像亮度越来越暗,当α取值偏小时,增强图像整体偏亮,在原图灯光处出现过度曝光,在α取值为0.8时才逐渐消失,但依旧过亮。而当α取值为1.2时,增强图像偏暗,色彩不鲜明,细节不清晰。当α取值为1时,增强图像的细节、整体色彩都比较好,图像整体最自然逼真,故设置方法中的α取值为1。

    2)方法性能对比分析

    为验证本文方法的有效性,将其与其他6种方法进行性能比较,比较方法中传统方法包括:基于去雾方法的低光照图像增强模型Dong[12]、基于融合模型的方法BIMEF[9]和基于Retinex模型的方法LIME[6];深度学习方法包括:Retinex-Net[15]、MBLLEN [21]和Zero-DCE[22]。由主观视觉与客观指标两个方面评价7种方法增强图像质量,对比分析本文提出方法的性能与适用性。

    为保证对比方法的性能,在保留原方法参数设置基础上开展对比实验,对比方法来源于作者网站下载的代码。图 5展示了7种方法的部分对比实验结果,如图 5中,从左到右、从上到下依次对应输入的矿井下低光照图像,Dong、BIMEF、LIME、Retinex-Net、MBLLEN、Zero-DCE和本文方法对应的增强图像。

    图  5  煤矿井下低光照图像增强效果
    Figure  5.  Enhancement effect of low light image in coal mine underground

    视觉分析图 5(a)可以看出,增强图像为S102时,本文方法增强的结果亮度改善最为明显,图像较为清晰,并且增强图像的整体色调和细节恢复程度最佳,Dong和Retinex-Net方法出现明显的失真;BIMEF和MBLLEN增强后的图像亮度增强效果不明显,在细节和角落处出现对比度增强不足的问题;而LIME方法相对来说效果较好,但在图像细节增强处略微出现不足;Zero-DCE出现整体图像颜色过曝光,失去原有图像真实色调。图 5(b)可以看出,增强图像为S106时,传统方法中,LIME相较于Dong和BIMEF增强效果表现较好,但它在墙壁处和地板处增强了噪声,导致图像整体视觉较差,Dong增强后的图像在灯光等较亮处出现了部分失真现象,BIMEF整体图像亮度增强不足,丢失图像部分细节;在深度学习方法中,Retinex-Net增强后,整张图像出现了较为严重的颜色失真,MBLLEN同样出现亮度增强不足的问题,Zero-DCE方法增强后,灯光处的明亮区域被过度增强。分析图 5(c)知,增强图像为S6351时,LIME相对其他方法视觉效果表现较好,但它增强过后灯光处出现过度增强,导致图像上方出现颜色失真,Dong和Retinex-Net方法增强后出现较为严重的颜色失真,丢失原图细节信息,BIMEF和MBLLEN相较于本文提出方法图像增强不足,原图中的黑暗部分并未得到很好的增强,Zero-DCE方法在S6351中的灯光处出现过度曝光,而本文方法增强后的图像总体来说较为清晰,并且增强后的图像整体色调和细节恢复程度较为理想。

    图 6可以直观地看出,本文方法在图 5测试图像的NIQE值数值最低,表明其增强后图像最自然,亮度及色调恢复得最好。

    图  6  煤矿井下低光照图像的NIQE值折线图
    Figure  6.  The NIQE value line of low light images in coal mine underground

    图 7展示了煤矿下数据集(Mine-data)中的部分测试图像的各个方法的增强结果。从图 7中可以看出各个方法在矿井下测试图像增强中出现的问题,在煤矿数据集(Mine-data)中同样存在,由于Mine-data中有对应的正常光照下的图像进行参考,所以可以计算出它们的PSNR和SSIM值,并使用竖状图的形式列出,如图 8所示,可以更加清晰地看出,在Mine-data的测试图像T812、T865、T1628和T1683中,本文提出的方法在PSNR和SSIM值上都表现优秀。

    图  7  煤矿数据集(Mine-data)部分图像增强效果
    Figure  7.  Partial image enhancement effect of mine-data
    图  8  Mine-data测试图像各方法增强结果的PSNR和SSIM
    Figure  8.  PSNR and SSIM of the enhancement results of various methods for Mine-data test images

    为了防止抽取图像的随机性和偶然性,又对煤矿数据集(Mine-data)中所有图像进行测试,并将它们的PSNR、SSIM和NIQE均值在表 1中列出,表中加粗字体为该组数据的最优值(PSNR、SSIM越高越好,NIQE越低越好),蓝色字体为其次。从表 1可以明显看出本文提出的方法在Mine-data中的低光照图像的PSNR值和SSIM值的都最大,位居第一,并且NIQE值也最小,同样是位居第一。综合分析,本文提出的方法在煤矿数据集(Mine-data)上表现良好,无论是从视觉效果上还是指标分析上都表现出较大的优势,从而证实了此方法的适应性、可行性和优越性。

    表  1  Mine-data矿井下图像质量指标数据比较
    Table  1.  Comparison of mine-data image quality index data in underground mines
    Metrics Dong BIMEF LIME Retinex-Net MBLLEN Zero-DCE Ours
    PSNR↑ 19.84 14.73 13.31 18.38 20.25 20.55 20.73
    SSIM↑ 0.76 0.42 0.43 0.77 0.76 0.88 0.91
    NIQE↓ 4.06 3.78 3.65 4.42 4.87 3.84 3.57
    Note:Bold data is optimal. Blue data is suboptimal.
    下载: 导出CSV 
    | 显示表格

    针对煤矿井下的特殊低光照环境,本文提出了一种基于HSV空间的煤矿井下低光照图像增强方法,该方法在HSV空间变换的条件下,利用相对全变分滤波和改进的边窗滤波对提取出的亮度通道V通道图像分别进行对比度增强处理并使用PCA技术进行融合,相对全变分滤波提取出V通道图像的主要结构,改进的边窗滤波对V通道图像进行轮廓边缘保留,使之最后的增强结果既保持了图像原有的细节和边缘轮廓,又能提高图像整体的亮度和对比度。最后将图像的三通道图像合成并由HSV空间转换到RGB空间,完成整体图像增强。实验表现,本文方法与6种先进的增强方法相比,增强煤矿下低光照图像时,无论是主观视觉还是客观指标都具有一定的优势,其更加适合煤矿井下低光照图像的增强。

  • 图  1   红外成像目标仿真系统功能设计框图

    Figure  1.   Functional design block diagram of infrared imaging target simulation system

    图  2   场景内热量传递示意图

    Figure  2.   Schematic diagram of heat transfer in the scene

    图  3   基于JRM的红外图像生成总体方案

    Figure  3.   Overall scheme of infrared image generation based on JRM

    图  4   传感器参数

    Figure  4.   Sensor parameters

    图  5   信息流转图

    Figure  5.   Information flow diagram

    图  6   目标与背景模型

    Figure  6.   Models of target and background

    图  7   物理材质特性建模

    Figure  7.   Modeling physical material properties

    图  8   各类干扰环境仿真

    Figure  8.   Simulation of various types of interference environment

    图  9   场景搭建

    Figure  9.   The construction of the scene

    表  1   基本环境参数设置

    Table  1   Basic environment parameter settings

    Parameter type Value
    Atmospheric model Winter mid-latitude
    Season Winter
    Aerosol model Village(visual range 5 km)
    Daily minimum temperature/℃ −10
    Daily maximum temperature /℃ 10
    Relative humidity 0.5
    Wind speed/(m/s) 0
    Simulation time 12:00 am
    下载: 导出CSV

    表  2   各场景渲染帧频

    Table  2   The rendering frame rates of each scenes

    Type No sensor added Add sensor
    Undisturbed environment 243.90 Hz 232.02 Hz
    Rain 173.83 Hz 163.09 Hz
    Snow 172.85 Hz 159.70 Hz
    Fog 181.02 Hz 167.22 Hz
    Cloud 159.81 Hz 140.99 Hz
    Tank dust 178.47 Hz 162.09 Hz
    Battlefield fire, smoke screen 112.29 Hz 107.32 Hz
    下载: 导出CSV
  • [1] 方有培, 钱建平. 对红外成像制导导弹的干扰技术研究[J]. 红外与激光工程, 2000(3): 7-10.

    FANG Y P, QIAN J P. Jamming technology research to the imaging IR guidance missile[J]. Infrared and Laser Engineering, 2000(3): 7-10.

    [2] 杨俊彦, 吴建东, 宋敏敏. 红外成像制导技术发展展望[J]. 红外, 2016, 37(8): 1-6.

    YANG J Y, WU J D, SONG M M. Prospect of infrared imaging guidance technology[J]. Infrared, 2016, 37(8): 1-6.

    [3] 周莉莉, 李海凤, 佟佳慧, 等. 红外成像制导半实物仿真技术研究[J]. 上海航天, 2019, 36(4): 51-55.

    ZHOU L L, LI H F, DONG J H, et al. Research of hardware-in-the-loop technology for IR imaging guidance and control system[J]. Aerospace Shanghai, 2019, 36(4): 51-55.

    [4] 郑小宝, 王仕成, 廖守亿, 等. 基于Creator和Vega的红外图像实时生成软件设计[J]. 红外技术, 2008, 30(10): 575-579. DOI: 10.3969/j.issn.1001-8891.2008.10.005

    ZHENG X B, WANG S C, LIAO S Y, et al. The design of real time infrared image generation software based on Creator and Vega[J]. Infrared Technology, 2008, 30(10): 575-579. DOI: 10.3969/j.issn.1001-8891.2008.10.005

    [5] 张健, 张建奇, 邵晓鹏. 基于Vega Prime的红外场景生成技术在成像制导仿真系统中的应用[J]. 红外技术, 2005(2): 124-128. DOI: 10.3969/j.issn.1001-8891.2005.02.007

    ZHANG J, ZHANG J Q, SHAO X P. Application of IR scene generation technique based on Vega prime in IR imaging guidance simulation[J]. Infrared Technology, 2005(2): 124-128. DOI: 10.3969/j.issn.1001-8891.2005.02.007

    [6]

    Latger J, Cathala T, Douchin N, et al. Simulation of active and passive infrared images using the SE-WORKBENCH[C]//Infrared Imaging Systems: Design, Analysis, Modeling, and Testing XVIII, SPIE, 2007, 6543: 11-25.

    [7] 张繁, 王通, 黄可蒙, 等. 基于Unity3D的改进实时红外仿真系统[J]. 计算机辅助设计与图形学学报, 2018, 30(7): 1177-1186.

    ZHANG F, WANG T, HUANG K M, et al. One improved real-time infrared simulation system based on unity3D[J]. Journal of Computer-Aided Design & Computer Graphics, 2018, 30(7): 1177-1186.

    [8] 黄曦, 张建奇, 张绍泽, 等. 目标高真实感红外图像生成方法[J]. 红外与激光工程, 2013, 42(4): 1084-1088.

    HUANG X, ZHANG J Q, ZHANG S Z, et al. Realistic infrared image generation method of target[J]. Infrared and Laser Engineering, 2013, 42(4): 1084-1088.

    [9] 张作宇, 廖守亿, 张金城, 等. 基于物理模型的战场烟幕实时红外仿真[J]. 红外与激光工程, 2016, 45(4): 116-123.

    ZHANG Z Y, LIAO S Y, ZHANG J C, et al. Real-time battlefield smoke IR simulation based on physical model[J]. Infrared and Laser Engineering, 2016, 45(4): 116-123.

    [10] 胡海鹤, 郭长庚, 胡海燕. 基于数据库查找表技术的实时红外场景仿真[J]. 红外技术, 2013, 35(6): 329-333, 344. http://hwjs.nvir.cn/article/id/hwjs201306004

    HU H H, GUO C G, HU H Y. Real time infrared scene simulation system based on database lookup table technology[J]. Infrared Technology, 2013, 35(6): 329-333, 344. http://hwjs.nvir.cn/article/id/hwjs201306004

    [11] 陈衡. 红外物理学[M]. 北京: 国防工业出版社, 1985.

    CHEN H. Infrared Physics[M]. Beijing: National Defense Industry Press, 1985.

图(9)  /  表(2)
计量
  • 文章访问数:  182
  • HTML全文浏览量:  38
  • PDF下载量:  54
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-12-31
  • 修回日期:  2022-02-04
  • 刊出日期:  2024-02-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日