640×512帧转移EMCCD相机时序设计

沈吉, 那启跃, 徐建东, 常维静, 张伟, 简云飞

沈吉, 那启跃, 徐建东, 常维静, 张伟, 简云飞. 640×512帧转移EMCCD相机时序设计[J]. 红外技术, 2023, 45(5): 548-552.
引用本文: 沈吉, 那启跃, 徐建东, 常维静, 张伟, 简云飞. 640×512帧转移EMCCD相机时序设计[J]. 红外技术, 2023, 45(5): 548-552.
SHEN Ji, NA Qiyue, XU Jiandong, CHANG Weijing, ZHANG Wei, JIAN Yunfei. 640×512 Frame Transfer EMCCD Camera Timing Sequence Design[J]. Infrared Technology , 2023, 45(5): 548-552.
Citation: SHEN Ji, NA Qiyue, XU Jiandong, CHANG Weijing, ZHANG Wei, JIAN Yunfei. 640×512 Frame Transfer EMCCD Camera Timing Sequence Design[J]. Infrared Technology , 2023, 45(5): 548-552.

640×512帧转移EMCCD相机时序设计

基金项目: 

科技创新2030-“新一代人工智能”重大项目 2018AAA0103100

详细信息
    作者简介:

    沈吉(1988-),男,江苏海门人,硕士,高级工程师,从事光电器件与组件科研开发。E-mail:njustshenji@126.com

  • 中图分类号: TN223

640×512 Frame Transfer EMCCD Camera Timing Sequence Design

  • 摘要: 为了实现640×512分辨率的EMCCD(Electron-Multiplying CCD)在1×10-3 lx照度条件下25 fps连续动态成像,设计了对应的相机。搭建了相机硬件平台,分析了EMCCD工作时序、AFE工作时序、BT.656编码和Camera Link编码时序。利用硬件描述语言在FPGA中产生了相应的驱动时序。实现了EMCCD曝光和读出控制,AFE相关双采样和光学暗电平钳位,模拟视频信号逐行变隔行和插值拉伸以及Camera Link协议的并串转换。通过实际测量和分析,相机在模拟夜天光1×10-3 lx照度,EMCCD增益1000倍,镜头焦距25 mm,F1.4的条件下,能同时输出模拟视频和数字视频,成像帧率25 fps,信噪比21.8 dB。
    Abstract: An EMCCD camera was introduced to realize 25 fps continuous dynamic imaging with 640×512 resolution under 1×10-3 lx illuminance. Through the construction of the camera hardware platform, as well as the analysis of the EMCCD working timing, AFE working timing, BT.656 encoding, and Camera Link encoding timing, the camera uses FPGA and HDL to generate the corresponding driver timing. This includes EMCCD exposure and readout, AFE-correlated double sampling and optical dark clamping, analog video progressive to interlacing and stretching, and Camera Link parallel to serial conversion. The camera operates under the following conditions: 1×10-3 lx simulated night sky illuminance, 1000× EMCCD gain, 25 mm lens focus, and F1.4; the experimental results demonstrate the imaging frame rate of 25 fps and SNR of 21.8 dB.
  • 煤矿井下的视频监控系统[1]是对井下工作人员和设备等目标的位置和状态等信息分析的重要手段,但是由于煤矿井下的复杂环境,使获取到的图像存在对比度低、光照不均、边缘细节模糊等问题,造成分析图像出现困难[2]。因此,对煤矿井下采集到的图像使用增强方面的预处理等技术研究具有极为重要的意义[3]。目前主流的煤矿井下的图像增强方法主要分为基于模型和深度学习两大类。

    基于模型的方法分为直方图均衡化[4]和基于Retinex[5]理论两种方法。其中,基于直方图均衡化的方法[6]容易引起图像过增强和出现曝光现象。随着技术的不断发展,图像增强研究热点逐渐转移到基于Retinex理论的方法。基于Ritinex理论和光照图估计[7]的低光照增强图像方法[8]LIME(Low-light Image Enhancement via Illumination Map Estimation),先对光照图进行处理,最后将反射图的输出作为增强结果,但容易出现过增强的现象。NPE[9](Naturalness Preserved Enhancement)在增强图像对比度的同时保持了照明的自然度,但没有考虑不同场景中照明的关系。用于图像增强的多曝光融合框架BIMEF(Bio-Inspired Multi-Exposure Fusion)[10],采用双曝光融合方法,但结果亮度过低。RRM(Structure-Revealing Low-Light Image Enhancement Via Robust Retinex Model)[11]采用基于增广Lagrange乘子的ADM(Alternating direction methods)方法,对噪声进行预测,同时估计反射图和光照图进行图像增强,但增强结果不够清晰。基于去雾的方法[12]利用了雾天拍摄的图像与低光照图像之间的反向联系来达到图像增强的效果。

    随着深度学习的飞速发展,基于深度学习的网络已被广泛应用于图像处理中。Lore等人[13]使用堆叠稀疏去噪自动编码器(A Deep Autoencoder Approach to Natural Low-light Image Enhancement,LLNet)增强图像和对图像去噪。LLCNN(A convolutional neural network for low-light image enhancement)[14]是一种基于超分辨率模型VDSR(Very Deep-Super Resolution)和残差网络ResNet的双分支残差学习网络,但其多尺度特征融合能力不足。为了克服这些困难,Wei C.等人提出一种基于Retinex理论分解的方法,建立了一个将图像分解和图像增强相结合的深度神经网络[15],将原始图像分解为光照图和反射图,但忽略了红-绿-蓝色(Red-Green-Blue, RGB)空间的三个通道的相关性,结果出现严重失真。基于深度学习的方法[16-17]虽然有一定的有效性,但需要大量的数据集,同时网络的训练也需要复杂的设备支持,其运行时间也会随着网络的大小而增加。

    针对以上煤矿井下图像增强中存在的问题,提出一种基于图像的HSV空间[18],利用相对全变分(Relative Total Variation, RTV)滤波和改进的边窗滤波(Side Window Filtering, SWF)增强V通道图像并融合的方法,实现对图像的增强。该方法在不需要大量数据集支撑的前提下,能够有效解决低光照图像边缘细节模糊、细节丢失的现象,并且在保持图像原有的色彩的同时达到增强图像的亮度和对比度细节的效果。

    由于彩色图像的光照并不与RGB模型的三通道中某一单一的通道有明确的联系,而RGB模型的三通道互相影响,相对而言,HSV模型中的三通道相对独立,且场景中的光照对图像的亮度通道V通道影响较大,针对亮度做校正方便快捷且计算简单,故本文选用在HSV空间中完成对煤矿井下低光照图像进行亮度的矫正。

    方法的整体框架如图 1所示。首先将低光照图像分为色调通道H、饱和度通道S和亮度通道V三个通道,利用RTV与SWF,对提取出来的V通道图像分别进行主要结构提取和轮廓边缘保留,之后对其进行非线性灰度拉伸以增强其对比度,非线性灰度拉伸参考了S通道图像,更好保留了图像的原结构。利用新的融合技术PCA得到增强后的V通道图像,最后将新的V通道与之前分离出来的S通道和H通道融合并由HSV空间转换到RGB空间,最后输出增强后的图像。

    图  1  基于HSV空间的煤矿下低光照图像增强方法整体框架
    Figure  1.  Overall framework of low-light image enhancement method under coal mine based on HSV space

    1)主要结构提取

    主要结构采用结构约束优化方法提取,即相对全变分(RTV)[19]的方法,RTV采用像素加窗总变差度量项ϑ和窗口固有变化度量项ς构成目标函数正则项,xy分别表示ϑς水平和垂直方向度量值,定义如式(1)和式(2):

    $$\begin{aligned} & \vartheta_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \vartheta_y(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (1)
    $$\begin{aligned} & \varsigma_x(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_x S\right)_q\right|, \\ & \varsigma_{\mathrm{y}}(p)=\sum\limits_{q \in R(p)} g_{p, q} \cdot\left|\left(\partial_y S\right)_q\right| \end{aligned}$$ (2)

    式中:R(p)是以像素p为中心的矩形区域;qR(p)区域内某一点像素;ϑx(p)和ϑy(p)分别表示p在像素的xy方向加窗的总变差,其可以计算窗口R(p)的绝对空间差异,∂x和∂yxy两个方向上的偏导数,S是所得到的结构图像;式(2)是为了更好地区分出结构和纹理元素,gp, q是根据空间相关性定义权重函数${g_{p,q}} \propto \exp (( - ({x_p} - {x_q}) + ({y_p} - {y_q}))/2{\sigma ^2})$,σ为尺度因子控制权重函数分布形状,为更好地在视觉显示区域加强纹理和机构之间的区分度,结合ϑς形成了一种有效的结构纹理分解正则化器,用于图像的结构化提取,RTV的目标函数如式(3):

    $$ {L_{{\text{RTV}}}} = \mathop {\min }\limits_t \sum\limits_p {({t_p} - {{\tilde t}_p})} + \lambda \cdot (\frac{{{\vartheta _x}(p)}}{{{\varsigma _x}(p) + \varepsilon }} + \frac{{{\vartheta _y}(p)}}{{{\varsigma _y}(p) + \varepsilon }}) $$ (3)

    式中:$\tilde{t}_p$是输入图像;tp是生成的结构图像;(tp-$\tilde{t}_p$)2是保真项,确保提取的结构与输入图像结构尽量一致;λ是平衡因子,图像去除纹理效果由正则项$ \left( {\frac{{{\vartheta _x}\left( p \right)}}{{\varsigma {}_x\left( p \right) + \varepsilon }} + \frac{{{\vartheta _y}\left( p \right)}}{{\varsigma {}_y\left( p \right) + \varepsilon }}} \right) $决定,ε取一个很小的正数,避免被零除。

    2)边缘细节保留

    对V通道的边缘细节保留使用改进的边窗滤波技术(SWF)[20],SWF具有显著的边缘保持能力,并在图像平滑与结构保留纹理去除、相互结构提取等应用中达到了最先进的性能。

    基于局部的过滤器通常是根据像素的邻域来估计其输出。被处理的像素位于操作窗口的中心,而操作窗口中的其他像素与他相邻。一种常见的基于线性近似的图像滤波操作假设图像是分段线性的,并将像素近似为局部窗口上相邻像素的加权平均值:

    $$I_i^{\prime}=\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j$$ (4)

    式中:Ωi为以像素i为中心的局部窗口(支撑域),其实就是局部窗口内的像素;ωij为权重,oiIi分别为输入图像q和输出图像I在位置i的强度。

    滤波器输出与原始图像之间的差异可以表述为以下代价函数:

    $$E_i=\left\|I_i-I_2^{\prime}\right\|_2^2=\left(I_i-\sum\limits_{i \in \mathit{\Omega }_i} \omega_{i j} o_j\right)^2$$ (5)

    利用泰勒展开,证明为了使用相邻像素的线性组合重建边缘像素,相邻像素必须来自边缘的一侧。SWF技术作为一种有效的保边滤波的方法,将每个目标像素视为一个潜在的边,并在其周围生成多个局部窗口,每个窗口都将目标像素与窗口的一个边或角对齐,SWF的输出是其中一个侧窗中的邻居的线性组合,可以最好地接近目标像素。

    侧窗的定义如图 2所示,参数θ为窗与水平线的夹角,参数r为窗的半径,p∈{0, r},(x, y)是目标像素i的位置,r是一个用户定义的参数,它对于所有的侧窗都是固定的。通过改变θ和固定(x, y),可以改变窗口的方向,同时使它的一侧与i对齐。R是窗口的半径,(a)是连续情况下侧窗的定义,(b)分为左(红色矩形)和后(蓝色矩形)侧窗,(c)分为上(红色矩形)和下(蓝色矩形)侧窗,(d)分为左上(红色矩形)、右上(蓝色矩形)、左下(绿色矩形)和右下(橙色矩形)侧窗。通过在每个边窗中应用滤波核F,可以得到8个输出:

    $$I_i^{\prime \theta, \rho, r}=F\left(q_i, \theta, \rho, r\right)$$ (6)
    图  2  SWF滤波8个方向的侧窗定义图
    Figure  2.  SWF filter side window 8 direction side window definition

    保持边缘意味着想要最小化输入和输出在边缘的距离,即滤波器的输出应该与输入在边缘相同或尽可能接近。因此,我们选择与输入强度L2距离最小的侧窗输出作为最终输出:

    $$I_{\mathrm{SWF}}^{\prime}=\underset{\forall I_i^{\prime \theta, \rho, r}}{\arg \min }\left\|q_i-I_i^{\prime \theta, \rho, r}\right\|_2^2$$ (7)

    图 3所示,第一行是从低光照图像中提取的V通道图。第二行是V通道使用RTV提取的主要结构图,可以有效提取出图像的主要结构,滤波整体结构良好,保存了V通道图像的主要结构特征,但在细节方面并未得到很好的区分,所以引入SWF技术,可以更好地区分纹理和细节。第三行是V通道经过SWF提取的边缘细节图,纹理边缘保持较好。采用特征值融合的方法,使两种滤波方法结合,保存图像整体结构良好的同时,精细结构能更加平滑,更好地区分纹理和结构。对比相应的增强图像可知,本文方法增强图像对比度更高,纹理细节及边缘保持相对更好一些。

    图  3  滤波结果图
    Figure  3.  Filter results

    3)主成分分析融合

    为了充分利用RTV提取图像的主要结构和SWF保持的图像边缘细节,采用基于主成分分析(Principal Component Analysis,PCA)融合方法进行V通道融合,PCA融合是经典空间域融合方法,该方法利用主成分分解可以保留原数据之特征信息这一特点,由两源图像获取协方差矩阵及其特征值和特征向量,据此确定图像融合方法的加权系数和最终的融合图像。首先,将二维图像转化为一维向量,并由一维向量构造数据矩阵X,然后,计算X的协方差矩阵的特征向量矩阵V和相应的特征值矩阵D,据此计算相应的加权系数,最后加权融合获得优化的传输图F

    将两幅图像转换为二维向量X,对其协方差矩阵C做特征值分解,获得2×2特征向量矩阵V和特征值矩阵D,其计算如式(8):

    $$\left\{\begin{array}{l} (\boldsymbol{V}, \boldsymbol{D})=\operatorname{Eig}(\boldsymbol{C}) \\ \boldsymbol{C}=\operatorname{Cov}(\boldsymbol{X}), \boldsymbol{X}=x_1, x_2^{\mathrm{T}} \end{array}\right.$$ (8)

    式中:Cov表示协方差计算;Eig表示特征值分解操作。之后根据式(9)和式(10)计算融合权重系数。

    $$V_1= \begin{cases}V(:, 1), & \text { if } D(1,1)>D(2,2) \\ V(:, 2), & \text { otherwise }\end{cases}$$ (9)

    式中:D(i, i)表示D的对角元素的第i个元素;V(: , i)表示V的第ii=1, 2,V1表示1维元素向量。

    $$W_i=\frac{V_1(i)}{V_1(0)+V_1(1)}, \quad i=0,1$$ (10)
    $$b=\sum\limits_{i=1}^2 W_i S_i$$ (11)

    式中:Wi为加权系数;b为融合结果分量;Si为待融合的主要结构传输图和精细结构传输图。将两种结构传输图优化融合,获得增强后的V通道图。

    根据图 1所示方法框架,基于HSV空间的矿井下低光照图像增强方法实施步骤为:

    1)获取低光照图像V通道图像V

    2)求解新的V通道图像V1V2

    对获得的V通道图像V进行RTV主要结构提取,并根据S通道图像的像素值对V通道图像进行非线性灰度拉伸,得到新的V通道图像V1;同时对V通道图像V进行SWF的边缘细节提取,进行相同的非线性灰度拉伸,得到V通道图像V2

    3)合成新的V通道分量

    利用PCA融合方法进行V通道分量合成,计算融合权重系数Wi,根据式(11)融合策略,得到新的V通道分量。

    实验开展分为2类,第1类是参数分析实验,调整参数值分析不同取值对方法影响;第2类是对比实验,将对煤矿井下低光照图像进行对比分析本文提出的方法与其他增强方法的增强性能差异,增强方法中传统方法包括Dong[12]、BIMEF[10]和LIME[6],实验在8GB RAM和Windows 10操作系统的笔记本电脑上运行,软件采用MATLAB2016a;深度学习方法包括基于Retinex-Net[14]、MBLLEN(Multi-Branch Low-light Enhancement Network)[21]和Zero-DCE[22],实验在Nvidia RTX3090 GPU工作站上运行。

    本文选择了常用的3种图像质量评价指标:峰值信噪比(Peak Signal to Noise Ratio, PSNR)[23]、结构相似性(Structual Similarity, SSIM)[24]和自然图像质量评估(Natural Image Quality Evaluator,NIQE)[25]作为增强后图像的评价指标。

    1)峰值信噪比(PSNR)

    峰值信噪比用来评价两幅图像相对质量的好坏,其值越高,说明增强后的图像失真越小,质量越好。对于大小为m×n的两幅图像IO(原图和增强后的结果图像),其均方差MSE(Mean Square Error)定义为:

    $$\mathrm{MSE}=\frac{1}{m n} \sum\limits_{i=0}^{m-1} \sum\limits_{j=0}^{n-1}[I(i, j)-O(i, j)]^2$$ (12)

    则PSNR(dB)定义为:

    $$\mathrm{PSNR}=10 \cdot \lg \left(\frac{\mathrm{MAX}_I^2}{\mathrm{MSE}}\right)=20 \cdot \lg \left(\frac{\mathrm{MAX}_I}{\sqrt{\mathrm{MSE}}}\right)$$ (13)

    式中:MAX为像素最大值。

    2)结构相似性(SSIM)

    图像的结构相似性(SSIM)可以衡量两个图像的相似程度,SSIM值的大小表示更符合人眼的直观感受。

    SSIM指标的计算表达式,如式(17)所示:

    $$\operatorname{SSIM}(I, O)=\left[l(I, O)^\alpha \cdot c(I, O)^\beta \cdot s(I, O)^\gamma\right]$$ (14)

    IO分别是原图和增强结果图,将αβγ设为1,可以得到:

    $$\operatorname{SSIM}(I, O)=\frac{\left(2 \mu_I \mu_O+c_1\right)\left(2 \sigma_{I O}+c_2\right)}{\left(\mu_I^2+\mu_O^2+c_1\right)\left(\sigma_I^2+\sigma_O^2+c_2\right)}$$ (15)

    式中:μIμOσI2σO2分别为IO的均值与方差,σIOIO的协方差,c1c2为常数,避免除数为零。图像的SSIM值越大,说明两幅图像的相似度越高,也就说明增强后的图像越接近真实图像。

    3)自然图像质量评估(NIQE)

    图像的自然图像质量评估值根据测试图像在特定高斯模型(multivariate Gaussian, MVG)上的分布差异对图像的质量进行评估,通过计算测试图像与参考图像拟合参数之间的距离来衡量图像质量。第一步,将提取的36个特征采用拟合MVG模型利用最大似然估计法计算得到参数vΣ。之后再提取失真图像统计特征,进行模型拟合得到(v′, Σ ′),具体的计算公式如下:

    $$D\left(v_1, v_2, \mathit{\Sigma }_1, \mathit{\Sigma }_2\right)=\sqrt{\left(v_1-v_2\right)^{\mathrm{T}}\left(\frac{\mathit{\Sigma }_1+\mathit{\Sigma }_2}{2}\right)^{-1}\left(v_1-v_2\right)}$$ (16)

    式中:v1v2表示参考图像和测试图像的MVG模型均值;Σ1Σ2表示参考图像和测试图像的MVG模型方差矩阵。当测试图像与参考图像差距较大时,NIQE的值越大,图像质量越差。

    1)非线性灰度拉伸的参数α取值分析

    为分析非线性灰度拉伸的α取值对增强方法的影响,选用不同测试图像实验,其中测试图像S1616,S1613和S881,在不同α取值{0.3, 0.5, 0.8, 1, 1.2}的实验结果,如图 4所示。

    图  4  不同图像α值的增强结果
    Figure  4.  Enhancement results for different image α

    图 4中,第一行、第三行、第五行分别是测试图像增强后的V通道图像V′,第二行、第四行、第六行分别是最终的增强图像。从图 4可以看出,随着α取值逐渐增大,增强后的图像亮度越来越暗,当α取值偏小时,增强图像整体偏亮,在原图灯光处出现过度曝光,在α取值为0.8时才逐渐消失,但依旧过亮。而当α取值为1.2时,增强图像偏暗,色彩不鲜明,细节不清晰。当α取值为1时,增强图像的细节、整体色彩都比较好,图像整体最自然逼真,故设置方法中的α取值为1。

    2)方法性能对比分析

    为验证本文方法的有效性,将其与其他6种方法进行性能比较,比较方法中传统方法包括:基于去雾方法的低光照图像增强模型Dong[12]、基于融合模型的方法BIMEF[9]和基于Retinex模型的方法LIME[6];深度学习方法包括:Retinex-Net[15]、MBLLEN [21]和Zero-DCE[22]。由主观视觉与客观指标两个方面评价7种方法增强图像质量,对比分析本文提出方法的性能与适用性。

    为保证对比方法的性能,在保留原方法参数设置基础上开展对比实验,对比方法来源于作者网站下载的代码。图 5展示了7种方法的部分对比实验结果,如图 5中,从左到右、从上到下依次对应输入的矿井下低光照图像,Dong、BIMEF、LIME、Retinex-Net、MBLLEN、Zero-DCE和本文方法对应的增强图像。

    图  5  煤矿井下低光照图像增强效果
    Figure  5.  Enhancement effect of low light image in coal mine underground

    视觉分析图 5(a)可以看出,增强图像为S102时,本文方法增强的结果亮度改善最为明显,图像较为清晰,并且增强图像的整体色调和细节恢复程度最佳,Dong和Retinex-Net方法出现明显的失真;BIMEF和MBLLEN增强后的图像亮度增强效果不明显,在细节和角落处出现对比度增强不足的问题;而LIME方法相对来说效果较好,但在图像细节增强处略微出现不足;Zero-DCE出现整体图像颜色过曝光,失去原有图像真实色调。图 5(b)可以看出,增强图像为S106时,传统方法中,LIME相较于Dong和BIMEF增强效果表现较好,但它在墙壁处和地板处增强了噪声,导致图像整体视觉较差,Dong增强后的图像在灯光等较亮处出现了部分失真现象,BIMEF整体图像亮度增强不足,丢失图像部分细节;在深度学习方法中,Retinex-Net增强后,整张图像出现了较为严重的颜色失真,MBLLEN同样出现亮度增强不足的问题,Zero-DCE方法增强后,灯光处的明亮区域被过度增强。分析图 5(c)知,增强图像为S6351时,LIME相对其他方法视觉效果表现较好,但它增强过后灯光处出现过度增强,导致图像上方出现颜色失真,Dong和Retinex-Net方法增强后出现较为严重的颜色失真,丢失原图细节信息,BIMEF和MBLLEN相较于本文提出方法图像增强不足,原图中的黑暗部分并未得到很好的增强,Zero-DCE方法在S6351中的灯光处出现过度曝光,而本文方法增强后的图像总体来说较为清晰,并且增强后的图像整体色调和细节恢复程度较为理想。

    图 6可以直观地看出,本文方法在图 5测试图像的NIQE值数值最低,表明其增强后图像最自然,亮度及色调恢复得最好。

    图  6  煤矿井下低光照图像的NIQE值折线图
    Figure  6.  The NIQE value line of low light images in coal mine underground

    图 7展示了煤矿下数据集(Mine-data)中的部分测试图像的各个方法的增强结果。从图 7中可以看出各个方法在矿井下测试图像增强中出现的问题,在煤矿数据集(Mine-data)中同样存在,由于Mine-data中有对应的正常光照下的图像进行参考,所以可以计算出它们的PSNR和SSIM值,并使用竖状图的形式列出,如图 8所示,可以更加清晰地看出,在Mine-data的测试图像T812、T865、T1628和T1683中,本文提出的方法在PSNR和SSIM值上都表现优秀。

    图  7  煤矿数据集(Mine-data)部分图像增强效果
    Figure  7.  Partial image enhancement effect of mine-data
    图  8  Mine-data测试图像各方法增强结果的PSNR和SSIM
    Figure  8.  PSNR and SSIM of the enhancement results of various methods for Mine-data test images

    为了防止抽取图像的随机性和偶然性,又对煤矿数据集(Mine-data)中所有图像进行测试,并将它们的PSNR、SSIM和NIQE均值在表 1中列出,表中加粗字体为该组数据的最优值(PSNR、SSIM越高越好,NIQE越低越好),蓝色字体为其次。从表 1可以明显看出本文提出的方法在Mine-data中的低光照图像的PSNR值和SSIM值的都最大,位居第一,并且NIQE值也最小,同样是位居第一。综合分析,本文提出的方法在煤矿数据集(Mine-data)上表现良好,无论是从视觉效果上还是指标分析上都表现出较大的优势,从而证实了此方法的适应性、可行性和优越性。

    表  1  Mine-data矿井下图像质量指标数据比较
    Table  1.  Comparison of mine-data image quality index data in underground mines
    Metrics Dong BIMEF LIME Retinex-Net MBLLEN Zero-DCE Ours
    PSNR↑ 19.84 14.73 13.31 18.38 20.25 20.55 20.73
    SSIM↑ 0.76 0.42 0.43 0.77 0.76 0.88 0.91
    NIQE↓ 4.06 3.78 3.65 4.42 4.87 3.84 3.57
    Note:Bold data is optimal. Blue data is suboptimal.
    下载: 导出CSV 
    | 显示表格

    针对煤矿井下的特殊低光照环境,本文提出了一种基于HSV空间的煤矿井下低光照图像增强方法,该方法在HSV空间变换的条件下,利用相对全变分滤波和改进的边窗滤波对提取出的亮度通道V通道图像分别进行对比度增强处理并使用PCA技术进行融合,相对全变分滤波提取出V通道图像的主要结构,改进的边窗滤波对V通道图像进行轮廓边缘保留,使之最后的增强结果既保持了图像原有的细节和边缘轮廓,又能提高图像整体的亮度和对比度。最后将图像的三通道图像合成并由HSV空间转换到RGB空间,完成整体图像增强。实验表现,本文方法与6种先进的增强方法相比,增强煤矿下低光照图像时,无论是主观视觉还是客观指标都具有一定的优势,其更加适合煤矿井下低光照图像的增强。

  • 图  1   EMCCD器件结构

    Figure  1.   EMCCD device structure

    图  2   EMCCD工作时序

    Figure  2.   EMCCD work timing

    图  3   SHP、SHD信号以及数字信号的流水线输出延迟

    Figure  3.   SHP、SHD signal and data bus pipeline delay

    图  4   相机实物与模拟、数字视频输出

    Figure  4.   Camera analog and digital output video

    图  5   成像选定区域的信噪比

    Figure  5.   Selected region mean SD and SNR value

    表  1   PAL视频帧的格式定义

    Table  1   PAL frame definition

    Lines Line Description
    1~22 Field1-First Vertical Blanking(Top)
    23~310 Field1-Active Video
    311~312 Field1-Second Vertical Blanking(Bottom)
    313~335 Field2-First Vertical Blanking(Top)
    336~623 Field2-Active Video
    624~625 Field2-Second Vertical Blanking(Bottom)
    下载: 导出CSV

    表  2   每行的数据结构

    Table  2   Line data structure

    EAV code Blanking Video SAV code Active Video
    FF 0 0 EAV Cb Y Cr Y 255 0 0 SAV Cb Y Cr Y
    4 bytes 280 bytes 4 bytes 1440 bytes
    下载: 导出CSV

    表  3   Camera Link位分配

    Table  3   Camera Link Bit Assignment

    Tx Input Signal Name Pin Name
    LVAL TX/RX 24
    FVAL TX/RX 25
    DVAL TX/RX 26
    Spare TX/RX 23
    Port A0 TX/RX 0
    Port A1 TX/RX 1
    Port A2 TX/RX 2
    Port A3 TX/RX 3
    Port A4 TX/RX 4
    Port A5 TX/RX 6
    Port A6 TX/RX 27
    Port A7 TX/RX 5
    Port B0 TX/RX 7
    Port B1 TX/RX 8
    Port B2 TX/RX 9
    Port B3 TX/RX 12
    下载: 导出CSV
  • [1]

    Hynecek J. Impactron-a new solid state image intensifier[J]. IEEE Transactions on Electron Devices, 2001, 48(10): 2238-2241. DOI: 10.1109/16.954460

    [2]

    Jerram P. The LLCCD: low-light imaging without the need for an intensifier[C]//Proc SPIE, 2001, 4306: 178-186.

    [3]

    Hainsworth A H, Lee S, Foot P, et al. Super‐resolution imaging of subcortical white matter using stochastic optical reconstruction microscopy (STORM) and super‐resolution optical fluctuation imaging (SOFI)[J]. Neuropathology and Applied Neurobiology, 2018, 44(4): 417-426. DOI: 10.1111/nan.12426

    [4]

    WANG Z, LU Y, LI W, et al. Single image super-resolution with attention-based densely connected module[J]. Neurocomputing, 2021, 453: 876-884. DOI: 10.1016/j.neucom.2020.08.070

    [5]

    QIU D, ZHENG L, ZHU J, et al. Multiple improved residual networks for medical image super-resolution[J]. Future Generation Computer Systems, 2021, 116: 200-208. DOI: 10.1016/j.future.2020.11.001

    [6]

    Chaurasiya K R, Dame R T. Single Molecule FRET Analysis of DNA Binding Proteins[M]//Single Molecule Analysis. Humana Press, New York, NY, 2018: 217-239.

    [7]

    WANG R, ZHANG G, LIU H. DNA-templated nanofabrication[J]. Current Opinion in Colloid & Interface Science, 2018, 38: 88-99.

    [8]

    Shriver R, Veatch S. A Hands-on freshman seminar course in DNA origami[J]. Biophysical Journal, 2017, 112(3): 464a. http://www.onacademic.com/detail/journal_1000039866432810_11e3.html

    [9]

    Chakraborty S, Hasan G. Spontaneous Ca2+ influx in drosophila pupal neurons is modulated by IP3-receptor function and influences maturation of the flight circuit[J]. Frontiers in Molecular Neuroscience, 2017, 10: 111. DOI: 10.3389/fnmol.2017.00111

    [10]

    Montecchi R, Schwob E. Long-term imaging of DNA damage and cell cycle progression in budding yeast using spinning disk confocal microscopy[M]//New York: Genome Instability. Humana Press, 2018: 527-536.

    [11]

    Schubeis T, Le Marchand T, Andreas L B, et al. 1H magic-angle spinning NMR evolves as a powerful new tool for membrane proteins[J]. Journal of Magnetic Resonance, 2018, 287: 140-152. DOI: 10.1016/j.jmr.2017.11.014

    [12]

    LEE J, FENG X, CHEN O, et al. Stable, small, specific, low-valency quantum dots for single-molecule imaging[J]. Nanoscale, 2018, 10(9): 4406-4414. DOI: 10.1039/C7NR08673C

    [13]

    Enomoto T, Kubota H, Mori K, et al. Absolute bioluminescence imaging at the single-cell level with a light signal at the Attowatt level[J]. BioTechniques, 2018, 64(6): 270-274. DOI: 10.2144/btn-2018-0043

    [14]

    Feinendegen L E, Cuttler J M. Biological effects from low doses and dose rates of ionizing radiation: science in the service of protecting humans, a synopsis[J]. Health Physics, 2018, 114(6): 623-626. DOI: 10.1097/HP.0000000000000833

    [15] 刘智超, 樊桂花, 郭惠超, 等. 基于EMCCD的激光主动成像参数分析[J]. 激光与红外, 2016, 46(3): 271-274. DOI: 10.3969/j.issn.1001-5078.2016.03.005

    Liu Zhichao, Fan Guihua, Guo Huichao et al. Analysis of laser active imaging parameters based on EMCCD[J]. Laser & Infrared, 2016, 46(3): 271-274. DOI: 10.3969/j.issn.1001-5078.2016.03.005

    [16] 龚德铸, 王立, 卢欣. 微光探测EMCCD在高灵敏度星敏感器中的应用研究[J]. 红外与激光工程, 2007(z2): 534-539. DOI: 10.3969/j.issn.1007-2276.2007.z2.139

    Gong Dezhu, Wang Li, Lu Xin. Detection of faint light EMCCD based on star sensor[J]. Infrared and Laser Engineering, 2007(z2): 534-539. DOI: 10.3969/j.issn.1007-2276.2007.z2.139

    [17] 米本和也, 陈榕庭, 彭美桂. CCD/CMOS图像传感器基础与应用[M]. 北京: 科学出版社, 2006: 98-100.

    Mibenheye, Chen Rongting, Peng Meigui. Fundamentals and Applications of CCD/CMOS image sensor[M].Beijing: Science Press, 2006: 98-100.

    [18]

    Automated Imaging Association. Specifications of the Camera Link Interface Standard for Digital Cameras and Frame Grabbers, Version 1.1[Z/OL]. Automated Imaging Association, 2000, http://edge.rit.edu/content/P10662/public/old/Specs/CameraLink%20Specs.pdf.

图(5)  /  表(3)
计量
  • 文章访问数:  162
  • HTML全文浏览量:  128
  • PDF下载量:  41
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-10-26
  • 修回日期:  2022-06-22
  • 刊出日期:  2023-05-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日