Distance Estimation for Precise Object Recognition Considering Geometric Distortion of Wide-angle Lens
-
摘要:
人脸识别和车牌识别是智慧安防领域的重要内容。人脸和车牌的特征尺度小、细节丰富,对成像系统的空间分辨力有较高要求,需要较大规模的探测器和高传函、小畸变的光学镜头。然而,安防系统又要求广域监控,需要使用视场大但具有一定畸变的广角镜头。因此,设计既能精确识别人脸和车牌目标、又能广域监控的成像系统时,应将精确目标识别作为约束来权衡高空间分辨力和大视场的性能指标以及估计识别距离。在这样的应用需求下,本文提出了像素面密度对精确目标进行统一描述,并提出了考虑广角镜头径向畸变的精确目标识别距离估算方法,通过对存在旋转和平移的人脸和车牌目标进行计算验证,结果表明:考虑径向畸变后实际识别距离较理论识别距离近,且人脸和车牌平移距离分别为1 m和2 m时,实际与理论的识别距离差异高达34.2%和27.5%。
Abstract:Face and license plate recognition are crucial aspects in the field of intelligent security. A high-spatial-resolution imaging system with a large-format detector and low-distortion optical lens is required for recognizing small-scale features and rich details in faces and license plates. However, security systems need to monitor wide area, which requires a wide-angle lens with a wide field of view, but with some distortion. Therefore, precise target recognition should be used as a constraint to balance the high spatial resolution and wide field of view when designing an imaging system that can recognize details and monitor a wide area. Under such application requirements, an evaluation index based on pixel areal density is proposed. With the aid of this evaluation index, a distance estimation method for precise object recognition, considering the radial distortion of the wide-angle lens, was designed. Rotated and translated faces and license plates were used to demonstrate the estimation method. The results indicate that the recognition distance with radial distortion is less than that without radial distortion. When the translation distance is 1 m and 2 m, the difference between the actual recognition distance and the ideal recognition distance is 34.2% and 27.5%, respectively.
-
0. 引言
高光谱图像目标探测分为有先验知识的目标探测和无先验知识的异常检测,其中异常目标是指相对于场景中的其他目标地物存在光谱和空间属性差异且分布较少的目标。异常检测算法通过建立背景信号模型,找到图像中与背景模型不同的像元,将该像元归为异常目标[1]。
基于统计的异常检测算法通常假设背景属于某种特定的概率分布,而不遵循这种概率分布的样本即为异常,这类算法包括RX(Reed-Xiaoli)算法[2]、UTD-RXD算法[3]、局部RX(Local RX)算法[4-5]、核RX算法(Kernel RX)[6]以及局部核RX检测器(Local Kernel RX Detector)[6]等。而基于稀疏表达的异常检测算法通过背景的字典表达,将稀疏回归重建误差作为衡量异常的度量[7-8];另外稀疏低秩分解[9-10]将具有稀疏特性的目标和具有低秩特性的背景分离开来;基于协同表示[11]的异常检测认为背景中的每个像元都可以由其空间邻域近似表示,而异常则不能。
视觉注意机制(visual attention mechanism)是人类视觉所特有的大脑信号处理机制[12],人类视觉通过扫描全局图像,经过大脑处理,会自动识别图像中的感兴趣部分,即显著性区域。视觉注意机制模型分为自底向上与自顶向下两种形式,其中自底向上的视觉注意机制模型通过计算底层特征,无监督地对图像进行显著性检测。
Christof Koch和Laurent Itti[13]提出了对后续研究影响深远的ITTI视觉显著性模型,该模型设计来源是早期灵长类动物的视觉神经系统,其模型所用特征为亮度、颜色和方向。Liang等[14]将高光谱影像转换为三色图像进行显著性目标检测,得到的结果优于RGB影像,表明了视觉注意机制对于高光谱影像分析与处理的可行性。Cao等[15]用光谱角距离特征替代了颜色特征,证明了光谱特征在检测方面的优势。刘嘉诚等[16]利用显著性结合RX算法对高光谱影像进行异常检测,但该方法在进行显著性计算时仅利用了光谱信息。Zhao等[17]将频率调谐显著性检测模型与光谱显著性相结合,对高光谱图像中的目标进行检测。Xiang等[18]将视觉显著性模型引入到高光谱中,提出了一种通过视觉显著性模型和具有自适应权重的背景减法来实现高光谱异常检测的方法,但由于该方法将高光谱数据降维至三波段来替代RGB三波段进行显著性的计算,因此极易造成一些关键信息的缺失。
鉴于RX算法[2]计算背景的均值协方差时将异常目标也包含在内,导致背景模型估计不准确,从而降低检测精度,这里将视觉注意机制与RX融合,提出融合视觉注意机制的高光谱RX异常检测算法。该方法从采样方式、选取波段数以及局部光谱特征3方面对视觉注意机制进行改进,获取高光谱图像的显著性结果,然后利用显著性结果对原数据进行加权,并重新估计背景模型参数,进而对图像进行RX异常检测。
1. 基本原理
本文提出的算法首先以上-下采样的模式建立高斯金字塔,将原图像作为中间层,分别进行上采样与下采样,有效避免了因高光谱数据尺寸过小在下采样过程中而造成的信息损失,也有效防止了因高光谱数据量大的特点引起在上采样过程中造成信息量过大的问题。其次,在选取波段时选取多个波段,将每3个波段作为一个波段子集进行非光谱特征显著性的计算,有效避免了因数据降维造成的信息损失。最后,计算局部光谱特征显著性,将非光谱特征显著性与局部光谱特征显著性进行线性相加,得到最终的显著性结果,利用显著性结果对原数据进行加权,重新估计背景均值协方差,对原图像进行RX异常检测。算法流程图如图1所示。
1.1 RX算法
RX算法[2]是最早的异常检测算法,该算法可认为是广义似然比检测衍生出的一种具有恒虚警率的异常点探测器。定义图像X为M×N×L大小的图像,xi表示第i个像元光谱,RX算法的检测算子为:
$$ δ_\text{RXD}(x_{i})=(x_{i}-μ_\text{b})^{T}C_\text{b}^{-1}(x_{i}-μ_\text{b}) $$ (1) $$ {\mu _{\text{b}}} = \frac{1}{{{\text{Num}}}}\sum\limits_{i = 1}^N {{x_i}} $$ (2) $$ {C_{\text{b}}} = \frac{1}{{{\text{Num}}}}\sum\limits_{i = 1}^N {({x_i} - {\mu _{\text{b}}}){{({x_i} - {\mu _{\text{b}}})}^{\text{T}}}} $$ (3) 式中:Num为像元点个数;μb表示均值;Cb表示协方差。δRXD(xi)值越大,表明该像元越可能是异常。
1.2 融合自底向上视觉注意机制的高光谱图像异常检测
1.2.1 高斯金字塔
高斯金字塔利用高斯核函数对图像进行采样,得到图像不同尺度的子图集合。将原图像作为基础图像,利用高斯核对其进行卷积,对卷积后的图像进行上采样得到图像G,将此图像作为输入,重复卷积和采样操作得到下一步的图像,反复迭代多次,得到上采样高斯金字塔,其次对原图像进行卷积后下采样,迭代次数与上采样高斯金字塔相同,得到下采样高斯金字塔,两者结合形成最终的高斯金字塔,其中原图像为中间层。二维高斯卷积函数[19]为:
$$ G(x,y) = \frac{1}{{2{\text{π }}{\sigma ^2}}}{{\text{e}}^{ - \frac{{{x^2} + {y^2}}}{{2{\sigma ^2}}}}} $$ (4) 式中:σ为高斯函数的标准差,最终得到M层高斯金字塔,记为G(M)。
1.2.2 局部光谱特征
设局部窗口内任意像元为xp=[xp1, xp2, ⋯, xpL]T,其中p∈(1,n),n表示局部窗口内的像元个数。定义ds(xi, xj)表示局部窗口中任意一个像元的光谱xi和局部窗口中心像元的光谱xj之间的光谱相似性。为使局部窗口内的像元遵循越靠近中心像元影响越大的原则,定义dp(xi,xj)为像元点xi和中心像元xj在局部窗口中的空间距离,以dp(xi,xj)计算邻域像元对中心像元的影响,光谱显著性dSaliency(xi,xj)计算公式如下:
$$ {d_{{\text{Saliency}}}}({x_i},{x_j}){\text{ = }}\frac{{{d_\text{s}}({x_i},{x_j})}}{{1 + c*{d_\text{p}}({x_i},{x_j})}} $$ (5) 式中:ds(xi,xj)和dp(xi,xj)采用欧氏距离[20]进行计算;c是用来调整显著性中位置距离和光谱距离之间比例的尺度参数,本文中设置为1。
为防止噪音或其他因素造成计算结果不准确,本研究以局部窗口的显著性平均值作为像元最终的显著值,定义dSaliency_eva为局部窗口的中心像元点与邻域像元光谱显著性的平均值,计算式如下:
$$ {d_{{\text{Saliency}\_\text{eva}}}} = \frac{{\sum\limits_{i = 1}^N {{d_{{\text{Saliency}}}}} }}{{{\text{sum}} - 1}} $$ (6) 式中:sum为局部窗口中除中心像元以外,显著性值非零的像元总数。在每一层金字塔进行计算,所得的光谱显著性结果记为D(M)。
1.2.3 非光谱特征
非光谱特征包括亮度特征、颜色特征和方向特征。在计算非光谱特征时,需要用3个波段进行计算,本研究选取K个波段子集,每个波段子集包括3个波段,共选取B=3K个波段,对每一个波段子集分别进行3种非光谱特征的计算。本文通过基于最优聚类框架(optimal clustering framework, OCF)的波段选取方法进行波段的选取[21]。OCF可以在合理的约束下获得特定形式目标函数的最优聚类结果,对每个聚类结果进行贡献度计算,相加作为整个聚类结果的度量。
亮度特征I提取公式如下:
$$ I\left( {M,K} \right) = {{\left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} \mathord{\left/ {\vphantom {{\left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} 3}} \right. } 3} $$ (7) 颜色特征提取时需要提取红R、绿G、蓝B、黄Y四种,计算公式如下:
$$ \begin{array}{l} R\left( {M,K} \right) = {{{b_1}\left( {M,K} \right) - \left( {{b_2}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} \mathord{\left/ {\vphantom {{{b_1}\left( {M,K} \right) - \left( {{b_2}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} 2}} \right. } 2} \hfill \\ G\left( {M,K} \right) = {{{b_2}\left( {M,K} \right) - \left( {{b_1}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} \mathord{\left/ {\vphantom {{{b_2}\left( {M,K} \right) - \left( {{b_1}\left( {M,K} \right) + {b_3}\left( {M,K} \right)} \right)} 2}} \right. } 2} \hfill \\ B\left( {M,K} \right) = {{{b_3}\left( {M,K} \right) - \left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right)} \mathord{\left/ {\vphantom {{{b_3}\left( {M,K} \right) - \left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right)} 2}} \right. } 2} \hfill \\ Y\left( {M,K} \right) = {{\left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right)} \mathord{\left/ {\vphantom {{\left( {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right)} 2}} \right. } 2} - \hfill \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\; {{\left| {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right|} \mathord{\left/ {\vphantom {{\left| {{b_1}\left( {M,K} \right) + {b_2}\left( {M,K} \right)} \right|} 2}} \right. } 2} - {b_3}\left( {M,K} \right) \hfill \\ \end{array} $$ (8) 方向特征利用Gabor滤波器求取,二维Gabor滤波器[22]核函数为:
$$g(x, y ; \lambda, \theta, \psi, \sigma, \gamma)=\mathrm{e}^{-\frac{x^2+\gamma^2 y^2}{2 \sigma^2}} \mathrm{e}^{\text{i}\left(2 \pi \frac{x^{\prime}}{\lambda}+\psi\right)}$$ (9) 式中:λ表示波长;θ表示方向;ψ表示相位偏移;γ表示空间纵横比。对每层金字塔影像进行计算,得到的结果记为O(θ,M, K),其中θ=[0°, 45°, 90°, 135°]。
1.2.4 显著性图
得到各特征高斯金字塔后,利用中心-周围差分方法计算对应特征图[13],计算公式为:
$$ \begin{array}{l} I\left( {c,s,K} \right) = \left| {I\left( {c,K} \right)\Theta I\left( {s,K} \right)} \right| \hfill \\ RG\left( {c,s,K} \right) = \left| {\left( {R\left( {c,K} \right) - G\left( {c,K} \right)} \right)\Theta \left( {G\left( {s,K} \right) - R\left( {s,K} \right)} \right)} \right| \hfill \\ BY\left( {c,s,K} \right) = \left| {\left( {B\left( {c,K} \right) - Y\left( {c,K} \right)} \right)\Theta \left( {Y\left( {s,K} \right) - B\left( {s,K} \right)} \right)} \right| \hfill \\ O\left( {c,s,\theta ,K} \right){\text{ = }}\left| {O\left( {c,\theta ,K} \right)\Theta O\left( {s,\theta ,K} \right)} \right| \hfill \\ D\left( {c,s} \right) = \left| {D\left( c \right)\Theta D\left( {\text{s}} \right)} \right| \hfill \\ \end{array} $$ (10) 式中:Θ表示将图像调整尺寸后,进行相同矩阵大小的相减运算;c代表Center;s代表Surround;I表示亮度特征图;RG与BY表示颜色特征图;O表示方向特征图;D表示局部光谱特征图。
由于高斯特征金字塔的尺度不同,需要利用插值将图像统一到相同的大小,才能对各个特征进行跨尺度相加。因此本文将各尺度特征图统一至原始数据大小,对不同特征进行跨尺度相加后得到显著性图集$ {\overline I _k},{\overline C _k},{\overline O _k},\overline D $,其中$ {\overline C _k} $表示颜色显著性图集,然后将每个波段子集的非光谱特征图相加,得到最终的非光谱特征显著性图$ \overline I ,\overline C ,\overline O $。
对每个特征显著性图进行归一化后进行线性相加得到最终的显著性图,计算公式为:
$$ S{\text{ = }}{{\left( {\overline I + \overline C + \overline O + \overline D } \right)} \mathord{\left/ {\vphantom {{\left( {\overline I + \overline C + \overline O + \overline D } \right)} 4}} \right. } 4} $$ (11) 1.2.5 融合视觉注意机制的高光谱RX异常检测算法
对显著性图进行高斯加权[23]得到显著性权重,定义w(i,j)为权重;s(i,j)为像元显著值,公式为:
$$ w(i,j) = {{\text{e}}^{ - \frac{{{{\left( {s(i,j) - \mu } \right)}^2}}}{{2{\sigma _s}^2}}}} $$ (12) 式中:μ为图像显著性的均值;σs为图像显著性的方差。得到显著性权重图像W后,对原数据进行显著性加权,像元显著值越大,权重越小,公式为:
$$\boldsymbol{X}_{\mathrm{s}}=\boldsymbol{W} \odot \boldsymbol{X}$$ (13) 式中:⊙表示逐波段加权运算。加权后的数据背景被增强,异常被抑制,我们利用加权数据Xs进行背景均值μs与协方差Cs的重新估计,进而对图像X进行RX异常检测。
$$ {\delta _{{\text{HITTIRX}}}}({x_i}) = {({x_i} - {\mu _{\text{s}}})^{\text{T}}}{\boldsymbol{C}_s}^{ - 1}({x_i} - {\mu _{\text{s}}}) $$ (14) 得到最终的异常检测结果。
2. 实验与结果分析
2.1 实验数据
本文选取模拟实验数据LCVF[24]与airport-beach-urban(ABU)异常检测数据集[25]中的数据进行试验。ABU数据集中选取4个数据,分别为:airport4、beach4、urban1、urban3。模拟实验数据为在AVIRIS传感器所拍摄高光谱影像中加入模拟异常目标,植入的模拟异常目标具体介绍如表1所示。
表 1 LCVF模拟异常目标Table 1. LCVF simulates anomalous targetsColumn Number of targets/cells Proportion of target Proportion of background 1 5/20 0.8 0.2 2 5/20 0.6 0.4 3 5/5 0.4 0.6 4 6/6 0.2 0.8 表 2 异常检测数据介绍Table 2. Anomaly detection data introductionData Sensor Resolution/m Size Targert type Number of targets/cells LCVF AVIRIS 20 120×160×190 Simulated anomalous targets 21/51 airport4 AVIRIS 3.4 100×100×205 Airport 3/60 beach4 ROSIS-03 1.3 150×150×102 Car and bare soil 7/68 urban1 AVIRIS 17.2 100×100×204 Building 9/67 urban3 AVIRIS 3.5 100×100×191 Ship 11/52 2.2 参数设置
本文需要设置的参数包括:高斯金字塔层数、波段选取数、局部光谱特征计算窗口大小。首先是高斯金字塔层数,固定局部光谱特征计算窗口大小为5×5,波段选取数量为3进行实验,获取金字塔层数分别为3、5、7、9层的实验结果。其次,固定局部光谱特征计算窗口大小为5×5,金字塔层数为5层进行试验,获取波段数为B={b=3k|1≤k≤10}的实验结果。最终是确定局部光谱特征计算窗口的大小,在计算局部光谱特征时,需要对图像进行扩充,本文通过围绕边界进行镜像反射来补边,固定金字塔层数为5层,波段选取数量为3进行实验,获取窗口大小分别为3×3,5×5,7×7的实验结果。
本文采用接收者操作特征(receiver operating characteristic, ROC)曲线与ROC曲线下面积(the area under the ROC curve, AUC)作为检测结果的精度评定指标[26]。实验结果如表3所示。由实验得出参数应设置为:金字塔5层,波段数15个,计算局部光谱特征的窗口大小为3×3。此外,在进行计算显著性图中的Center-Surround操作时,选取s={1,2},c={2,3}。
表 3 参数实验结果Table 3. Parameters experimental resultsParameter Size AUC Parameter Size AUC Number of bands 3 0.9759 Number of pyramid layers 3 0.9081 6 0.9621 5 0.9759 9 0.9681 7 0.9709 12 0.9777 9 0.9624 15 0.9779 18 0.9772 Spectral feature window size 3×3 0.9769 21 0.9765 5×5 0.9759 24 0.9746 7×7 0.975 27 0.9726 30 0.9725 2.3 消融实验
为验证3个方面的改进是否均有效,本文进行了消融实验。表4展示了消融实验的统计结果,对勾(√)表示改进该模块,结果表明,本文所做改进有效。模型G(进行3方面改进)算法精度最高。相较于模型A(未进行改进)来说,仅改进采样方式(模型B)时精度提升0.68%;改进波段选取数量(模型C)时精度提高了1.69%;融入局部光谱特征(模型D)时提升了1.39%;在同时对采样方式和波段选取进行改进(模型E)后,精度提高2.30%;在改进采样方式的同时融入局部光谱特征(模型F)后,精度提升了2.14%;同时改进3个模块时,精度提高了2.46%。由于局部光谱特征是利用全波段进行计算,波段选取数量影响的是非光谱特征,故不进行同时改进波段选取数量与融入局部光谱特征的实验。
表 4 消融实验Table 4. Ablation experimentmodel Sampling mode Band selection Spectral feature AUC A 0.9625 B √ 0.9690 C √ 0.9788 D √ 0.9759 E √ √ 0.9846 F √ √ 0.9831 G √ √ √ 0.9862 2.4 结果与分析
实验将展示ITTI显著性图(ITTI saliency map, ITTIS)与高光谱ITTI显著性图(Hyperspectral ITTI saliency map, HITTIS)2种显著性图,以及RX算法、ITTI显著性模型RX算法(ITTI saliency model RX algorithm, ITTIRX)、高光谱ITTI显著性模型RX算法(Hyperspectral ITTI saliency model RX algorithm, HITTIRX)3种算法的检测结果,并对结果进行对比分析。
如图3(a)所示,在模拟数据LCVF的检测结果中,RX检测结果仅检测出第一列与第三列目标,在引入显著性后进行RX检测,虽并未检测出更多目标,但背景抑制效果较好,在引入HITTIS后,目标被全部检测,背景几乎被全部抑制,仅有右下角的一部分未被完全抑制。
在真实数据中,HITTIRX的检测结果也同样展现了较好的效果。如图3(b)所示,在airport4的检测结果中,RX算法检测出了3个飞机中较大的一架,在引入ITTIS后,背景较为纯净,但检测目标的效果并不好,HITTIRX的检测结果中,3架飞机被成功检测出,背景抑制较RX与ITTIRX也更好;如图3(c)所示,在beach4的检测结果中,RX算法检测出目标,但并未抑制桥梁、右上与下方背景,在引入ITTIS后,桥梁被抑制,在HITTIRX检测结果中,桥梁与右上背景被完全抑制,下方背景被大部分抑制;如图3(d)所示,在urban1的检测结果中,RX算法虽检测到了目标,但虚警率较高,在ITTIRX的检测结果中,虚警率有所下降,但图像中仍有一个面状背景未被抑制,在引入HITTIS后,虚警率最低,目标被较好地检测出来,ITTIRX中未被抑制的面状背景也被抑制;如图3(e)所示,在urban3的检测结果中,RX算法将目标全部检测,但同其他数据检测结果一样存在虚警率高的问题,ITTIRX检测中虽降低了虚警率,但目标检测效果不好,引入HITTIS后,目标全部被检测,背景抑制效果也最好。
综上所述,相较于RX算法,引入ITTIS后,背景抑制效果增强,在HITTIRX的检测结果中,可以明显看到相较于ITTIRX来说,背景信息抑制更彻底,检测的目标更全面准确。总而言之,与RX和ITTIRX相比,HITTIRX虚警率更低,检测准确度更高。
如图4所示,可以明显看出本文建议方法的ROC曲线相较于RX算法与ITTIRX算法来说更接近左上角,模拟数据中本算法无限接近于左上角,证明HITTIRX算法的可行性,真实数据的结果也表明其性能优于RX算法与ITTIRX算法。
表5统计了各算法检测结果的AUC值。从表中可以看出,在5个数据上,HITTIRX算法精度最高且均在0.98以上,直接引入视觉注意机制会降低部分数据的检测准确性,但在进行改进后,检测准确度上升,虚警率下降。HITTIRX相较于RX检测精度来说分别提高了19.99%、3.86%、2.70%、0.77%、3.67%,相较于BUS-RX来说分别提高了14.24%、12.84%、5.86%、1.03%、2.46%。
表 5 AUC统计结果Table 5. AUC statisticsRX ITTIRX HITTIRX LCVF 0.8333 0.8753 0.9999 Airport4 0.9526 0.8768 0.9894 Beach4 0.9588 0.9302 0.9847 Urban1 0.9907 0.9881 0.9983 Urban3 0.9513 0.9625 0.9862 3. 结论
不同于以往的异常检测方法,本文引入了视觉注意机制,将视觉注意机制模型进行改进,并将高光谱图像的局部光谱特征融入视觉注意机制进行显著性图的获取,解决了传统视觉注意机制模型不适用于高光谱图像的问题。对原图像加权后重新估计背景参数进行异常检测,提高了RX异常检测算法背景模型的精确度。通过实验与分析得出以下结论:①引入视觉注意机制对高光谱图像异常检测具有可行性;②改进金字塔采样方式与波段选取数量对提高基于视觉注意机制的高光谱图像异常目标检测精度是有效的;③在视觉注意机制中加入局部光谱特征能够提高高光谱图像异常检测的精度,具有较低虚警率。
前言红外光学系统是红外光电设备的眼睛,位于红外光电设备的最前端,是红外光电设备最重要的组成部分之一,其性能的好坏直接决定着红外光电设备的整机性能。由于红外光学系统具有被动成像、不易被干扰、识别伪装能力强、可全天时工作、探测灵敏度高等优点,因此广泛应用于光电侦察、航空航天、空间遥感、精确制导、火灾搜救、电力巡检、医学检查等领域。红外光学系统涉及光学理论,像差理论,光机优化,光学材料,红外器件,光学制造,集成测试等多个领域,随着科学技术的快速发展,红外光学系统向着多次成像结构,多视场,大相对孔径,宽温度范围,多波段,一体化,小型化,集成化,轻量化等方向发展。为了促进科研人员在红外光学系统领域交流的最新成果,2021年12期,《红外技术》推出了“红外光学系统”专栏,共收录8篇学术论文,内容涉及二次成像结构的中波红外折反射式光学系统设计,大相对孔径的长波红外变焦无热化光学系统设计,制冷型中/长红外双波段一体化全反射式光学系统设计,考虑广角镜头畸变的精确目标识别距离估算,机载小型化中波红外连续变焦光学系统设计,红外探测器集成光学系统低温评价方法研究等,涉及领域较广,旨在集中反映报道红外光学系统领域的新动态和发展趋势,为相关科研人员和广大读者提供学术价值参考,为红外光学系统的研究发展提供一些新的思路。最后,感谢专栏论文所有作者的卓越贡献。——白瑜 -
表 1 识别标准与识别指数
Table 1 Standards and recognition index
Standard Evaluation index Identification China (Face) Pixels ≥30 China (License plate) Pixels ≥100 European Union (Person) mm/pixel > 4 United Kingdom (Person) TSR > 100% 表 2 识别人脸、车牌和人所需的最小像素面密度
Table 2 Minimal pixel density of face, license plate and person recognition
Situations Pixel density(pixels/m2) Face recognition 267289 License plate recognition 51984 Person detection 625 Person recognition 15625 Person identification 62500 表 3 识别距离与视场角和分辨率的关系
Table 3 Relationship between recognition distance and field of view, recognition distance and resolution
Resolution (pixel) Recognition distance of face/License plate/m 50° 60° 70° 80° 90° 100° 110° 1280×720 2.66/6.02 2.15/4.87 1.77/4.01 1.48/3.35 1.24/2.81 1.04/2.36 0.87/1.97 1920×1080 3.99/9.03 3.22/7.30 2.66/6.02 2.22/5.02 1.86/4.22 1.56/3.54 1.31/2.95 2560×1440 5.31/12.04 4.29/9.73 3.54/8.02 2.96/6.70 2.48/5.62 2.08/4.72 1.74/3.94 3840×2160 7.97/18.06 6.44/14.59 5.31/12.03 4.43/10.04 3.72/8.43 3.12/7.07 2.61/5.90 表 4 实际识别距离与理论识别距离的差异
Table 4 Difference between actual recognition distance and ideal recognition distance
Translation distance /m Ideal recognition distance/m Actual recognition distance/m Difference in distances/m Difference in proportions Face recognition 0.25 2.22 2.18 0.04 1.8% 0.5 2.22 2.07 0.15 6.8% 0.75 2.22 1.82 0.40 18.0% 1.0 2.22 1.46 0.76 34.2% License plate recognition 0.5 5.02 4.96 0.06 1.2% 1.0 5.02 4.76 0.26 5.2% 1.5 5.02 4.37 0.65 12.9% 2.0 5.02 3.64 1.38 27.5% -
[1] Taskiran M, Kahraman N, Erdem C E. Face recognition: past, present and future (a review)[J]. Digital Signal Processing, 2020, 106: 102809. DOI: 10.1016/j.dsp.2020.102809
[2] DING C, TAO D. A comprehensive survey on pose-invariant face recognition[J]. Acm Transactions on Intelligent Systems & Technology, 2016, 7(3): 37. http://www.researchgate.net/profile/Changxing_Ding/publication/272422850_A_Comprehensive_Survey_on_Pose-Invariant_Face_Recognition/links/54f9177b0cf28d6deca34081.pdf
[3] WANG Zhenzhou, ZHANG Xu, YU Pingping, et al. A new face recognition method for intelligent security[J]. Applied Sciences, 2020, 10(3): 852. DOI: 10.3390/app10030852
[4] Ahmed A U, Masum T M, Rahman M M. Design of an automated secure garage system using license plate recognition technique[J]. International Journal of Intelligent Systems & Applications, 2014, 6(2): 22-28.
[5] Baran R, Rusc T, Fornalski P. A smart camera for the surveillance of vehicles in intelligent transportation systems[J]. Multimedia Tools and Applications, 2016, 75(17): 10471-10493. DOI: 10.1007/s11042-015-3151-y
[6] CHUNG Y N, LU T C, HUANG Y X, et al. Applying image recognition technology to intelligent security management systems[C]//International Conference on Artificial Intelligence and Industrial Engineering (AIIE 2015), 2015: 117-120.
[7] Abramkina D E, Khatsevich T N. Analysis of optical systems of extremely wide-angle lenses for digital cameras[J]. Interexpo GEO-Siberia, 2020, 6(1): 3-10. DOI: 10.33764/2618-981X-2020-6-1-3-10
[8] Juarez-Salazar R, ZHENG J, Diaz-Ramirez V H. Distorted pinhole camera modeling and calibration[J]. Applied Optics, 2020, 59(36): 11310-11318. DOI: 10.1364/AO.412159
[9] WU F, WEI H, WANG X. Correction of image radial distortion based on division model[J]. Optical Engineering, 2017, 56(1): 013108. DOI: 10.1117/1.OE.56.1.013108
[10] Johnson J. Analysis of image forming systems[C]//Proceedings of SPIE, 1958, 513(513): 761.
[11] Leachtenauer J C. Resolution requirements and the Johnson criteria revisited[J]. Proceedings of SPIE, 2003, 5076: 1-15. DOI: 10.1117/12.497896
[12] 中国国家标准化管理委员会. 公共安全人脸识别应用图像技术要求: GB/T 35678-2017[S]. 中国标准出版社, 2017. Standardization Administration of the People's Republic of China. Public Security Face Recognition Application Technical Requirements for Face Images: GB/T 35678-2017[S]. Standards Press of China, 2017.
[13] 中国国家标准化管理委员会. 机动车号牌图像自动识别技术规范: GA/T 833-2016[S]. 中国标准出版社, 2016. Standardization Administration of the People's Republic of China. License plate of motor vehicle of the People's Republic of China: GA/T 833-2016[S]. Standards Press of China, 2016.
[14] European Committee for Electrotechnical Standardization. Video surveillance Systems for Use in Security Applications-Part 4: Application Guidelines: UNE-EN 62676-4-2015[S]. CEN-CENELEC Management Centre, 2014.
[15] Tony Mansfield. Adding Value to CCTV: Issues in Testing of Facial Recognition Systems[M]. UK: Home Office Scientific Development Branch, 2014: 4-12.
[16] 中国国家标准化管理委员会. 成年人头面部尺寸: GB/T 2428-1998[S]. 中国标准出版社, 1998. Standardization Administration. Head-face Dimensions of Adults: GB/T 2428-1998[S]. Standards Press of China, 1998.
[17] 中国国家标准化管理委员会. 中华人民共和国机动车号牌: GA 36-2018[S]. 中国标准出版社, 2018. Standardization Administration. License Plate of Motor Vehicle of the People's Republic of China: GA 36-2018[S]. Standards Press of China, 2018.
-
期刊类型引用(1)
1. 贾本康. 基于变压器噪声及故障分析的变电站轮式巡检机器人研究. 电力设备管理. 2024(17): 166-168 . 百度学术
其他类型引用(2)