Development of Low-Light-Level Night Vision Equipment Abroad
-
摘要:
微光夜视装备水平在很大程度上决定着部队在夜间的作战能力。在现代战争中,国外军事强国为了实现夜间“单向透明”到“独享黑夜”的飞跃提升,近年来都在大力发展微光夜视装备。本文回顾了国外微光夜视装备发展历程与技术进步,重点对近年来美国、俄罗斯、法国这3个国家微光夜视装备发展现状进行了梳理,探讨了微光夜视装备研发中的具体投入、技术创新路径以及实际应用情况,通过比较分析各国在微光夜视装备技术上的发展经验,对我国微光夜视装备发展有所借鉴和启示。分析可见,微光夜视技术在提升夜间作战能力和安全保障方面具有重要意义,在军事领域具有重要作用。
Abstract:The combat capability of a military at night is largely determined by the quality of low-light night-vision equipment. In contemporary military conflicts, various countries with sophisticated capabilities have been actively advancing low-light night vision equipment to achieve a substantial transition from "one-way transparency" to "exclusive control of the night." This study systematically reviews the global development history and technological progress of low-light night vision equipment, focusing on the progression and current state of development in three countries: the United States, Russia, and France. It also explores specific investments, technological innovation paths, and actual applications in the development of low-light night vision equipment across these nations. By comparing and analyzing the developmental experiences of various countries regarding low-light night vision equipment technology, this study offers a reference and inspiration for the development of low-light night vision equipment in China. This comprehensive analysis demonstrates that low-light night vision technology is crucial in augmenting the combat capability of the military at night and guaranteeing national security, indicating that low-light night vision technology will play a crucial role in the military domain in the future.
-
0. 引言
工业生产中的金属材料在使用过程中可能会产生划痕、裂纹等损伤缺陷,从而影响设备的正常运行,甚至危及人身安全,因而对金属材料中的损伤缺陷进行检测具有重要意义。涡流脉冲热成像检测作为新兴的无损检测技术,具有非接触性、检测速度快等优点[1],因而被广大研究者应用于工业中金属材料的探伤检测。如Peng等[2]采用快速傅里叶变换和主成分分析消除非均匀加热影响来增强红外图像的裂纹特征,成功检测出铜棒裂纹位置和形状。Yi等[3]通过涡流热成像检测技术,提出用核主成分分析和低秩稀疏建模方法,增强缺陷区域特征,实现了金属表面裂纹深度的检测。
因此基于图像分析的检测方法能够有效识别设备的金属裂纹,但上述文献无法实现自适应地提取缺陷图像的特征信息。近年来深度学习方法在图像识别、缺陷检测等方向取得了较好的效果,它能够自动地学习输入数据的深度特征。但深度学习方法的训练需要足量的数据,且训练的数据和测试的数据要具有相同的分布[4],实际的工业生产中,工况多变,训练和测试样本数据同分布的要求难以得到满足。
为解决以上问题,多种深度迁移学习方法被提出,例如基于特征迁移的深度学习方法。特征迁移的核心思路是通过适当的特征变换将源域和目标域的数据映射到一个公共的特征空间,并通过特征对齐来减小领域间的分布差异,然后利用源域的标签数据训练目标域的分类器[5]。特征迁移学习方法在许多领域得到发展和应用,例如Long等[6]提出的DAN深度适配网络同时适配3个全连接层,且提出了多核MMD(Maximum mean discrepancy)来度量两域之间的分布差异。Ganin等[7]引入生成对抗网络(Generative adversarial networks, GAN)[8]思想提出领域对抗神经网络(Domain adversarial neural network, DANN),将生成对抗网络的生成器视为特征提取器,将生成对抗网络的判别器视为域适应器,因而提取出源域和目标域的共同特征实现迁移。王等[9]联合生成对抗网络和多核MMD最小化域间距离,提出了基于生成对抗网络和距离度量的联合分类模型。
以上文献聚焦于源域和目标域进行全局特征对齐研究,缺乏对源域和目标域相同类别间关系的深入研究,故本文在特征提取网络ResNet50的基础上引入CBAM注意力机制,使得网络更加关注图像的重点区域,以此来提高网络的特征提取能力,并引用局部最大均值差异(Local maximum mean discrepancy, LMMD)[10]作为子领域自适应对齐算法,用来度量源域和目标域特征的分布差异,通过最小化该差异损失优化训练模型,并将得到的特征迁移深度学习模型应用于金属板材料缺陷的检测问题。
1. 领域自适应
1.1 全局域自适应与子领域自适应
领域自适应实质就是把提取的源域和目标域数据特征映射到可再生核希尔伯特空间(Reproducing kernel Hilbert space, RKHS)中来减小两领域间的分布差异。实行全局域自适应后,源域和目标域的全局特征得到对齐,但两域间不同类别的特征样本并没有明显地分开,影响了分类的准确性。而经过子领域自适应后,源域和目标域不仅全局特征得到对齐,而且两域中不同类别的特征很好地得以分开,且同类别间的特征分布更为紧密,因此子领域自适应可以改善全局域自适应分类精度较差的情况。两种领域自适应的思想如图 1所示。
1.2 最大均值差异度量算法
最大均值差异[11]是迁移学习领域应用较多的一种度量准则,它是一种度量数据集之间分布差异的非参数距离指标。对于源域${D_{\text{s}}} = \left\{ {x_i^{\text{s}}, y_i^{\text{s}}} \right\}_{i = 1}^{{n_{\text{s}}}}$,其中xis和yis分别为源域的第i个样本及对应标签,ns为源域样本个数,目标域${D_{\text{t}}} = \left\{ {x_j^{\text{s}}} \right\}_{j = 1}^{{n_{\text{t}}}}$,xjt为目标域的第j个样本,nt为目标域的样本个数,两域之间的MMD平方可表示为:
$$ \begin{array}{l} {\text{MM}}{{\text{D}}^2}\left( {{X^{\text{s}}}, {X^{\text{t}}}} \right) = \left\| {\frac{1}{{{n_{\text{s}}}}}\sum\limits_{i = 1}^{{n_{\text{s}}}} {\phi \left( {x_i^{\text{s}}} \right)} - \frac{1}{{{n_{\text{t}}}}}\sum\limits_{j = 1}^{{n_{\text{t}}}} {\phi \left( {x_j^{\text{t}}} \right)} } \right\|_H^2 \hfill \\ = \frac{1}{{n_{\text{s}}^2}}\sum\limits_{i, j = 1}^{{n_{\text{s}}}} {\left\langle {\phi \left( {x_i^{\text{s}}} \right), \phi \left( {x_j^{\text{s}}} \right)} \right\rangle + } \frac{1}{{n_{\text{t}}^2}}\sum\limits_{i, j = 1}^{{n_{\text{t}}}} {\left\langle {\phi \left( {x_i^{\text{t}}} \right), \phi \left( {x_j^{\text{t}}} \right)} \right\rangle } \hfill \\ - \frac{2}{{{n_{\text{s}}}{n_{\text{t}}}}}\sum\limits_{i, j = 1}^{{n_{\text{s}}}, {n_{\text{t}}}} {\left\langle {\phi \left( {x_i^{\text{s}}} \right), \phi \left( {x_j^{\text{t}}} \right)} \right\rangle } \hfill \\ \end{array} $$ (1) 式中:H是可再生核希尔伯特空间;ϕ是该空间的一个非线性映射函数,其内积可用核函数看k(, )来计算,即${\left\langle {\phi \left( {x_i^{\text{s}}} \right), \phi \left( {x_j^{\text{s}}} \right)} \right\rangle _{{H_k}}} = k\left( {x_i^{\text{s}}, x_j^{\text{s}}} \right)$,由此式(1)可写为:
$$ \begin{array}{l} {\text{MM}}{{\text{D}}^2}\left( {{X^{\text{s}}}, {X^{\text{t}}}} \right) = \frac{1}{{n_{\text{s}}^2}}\sum\limits_{i, j = 1}^{{n_{\text{s}}}} {k\left( {x_i^{\text{s}}, x_j^{\text{s}}} \right)} \hfill \\ + \frac{1}{{n_{\text{t}}^2}}\sum\limits_{i, j = 1}^{{n_{\text{t}}}} {k\left( {x_i^{\text{t}}, x_j^{\text{t}}} \right) - } \frac{2}{{{n_{\text{s}}}{n_{\text{t}}}}}\sum\limits_{i, j = 1}^{{n_{\text{s}}}, {n_{\text{t}}}} {k\left( {x_i^{\text{s}}, x_j^{\text{t}}} \right)} \hfill \\ \end{array} $$ (2) 2. 融合注意力的ResNet50网络和子领域自适应的工件缺陷检测模型
2.1 融合CBAM注意力机制的ResNet50特征提取模块
卷积注意力模块(Convolutional block attention module, CBAM)[12]是一种结合了通道注意力和空间注意力的综合注意力模块,CBAM结构如图 2所示[13]。输入特征图F∈RC×H×W,先经过通道注意力模块得到其权值MC(F),再经过空间注意力模块得到其权值MS(F′),整个过程计算公式如(3)、(4)所示。
$$ F^{\prime}=M_{\mathrm{C}}(F) \otimes F $$ (3) $$ F^{\prime \prime}=M_{\mathrm{S}}\left(F^{\prime}\right) \otimes F^{\prime}$$ (4) 由于随着网络模型的加深,会相继出现梯度消失和网络退化的问题,因此本文选择了采用残差块的ResNet50[14]网络模型,残差块的存在使得网络层之间能够进行短连接,缓解了梯度爆炸和梯度消失问题,提高了模型的稳定性。
ResNet50网络在提取特征中没有重点的关注喜好,本文希望网络模型在对工件进行检测训练时能更多地关注缺陷的部位,而忽略不重要的背景信息,从而提高模型检测识别的正确率。因此本文将CBAM注意力模块引入ResNet50网络中,实验采用在ImageNet上预训练的ResNet50网络,在引入CBAM模块时不改变ResNet50的残差结构,所以分别在第一层卷积和最后一层卷积后面加入CBAM模块,融合CBAM机制的ResNet50网络结构参数如表 1所示。
表 1 添加CBAM的ResNet50网络结构Table 1. ResNet50 network structure with CBAM addedNetwork layer Parameters Activation function Conv1 64×7×7 Relu CBAM 64×1×1
7×7Sigmoid Conv2_x $ \left. {\begin{array}{*{20}{c}} {64 \times 1 \times 1} \\ {64 \times 3 \times 3} \\ {256 \times 1 \times 1} \end{array}} \right\} \times 3 $ Relu Conv3_x $ \left. {\begin{array}{*{20}{c}} {128 \times 1 \times 1} \\ {128 \times 3 \times 3} \\ {512 \times 1 \times 1} \end{array}} \right\} \times 4 $ Relu Conv4_x $ \left. {\begin{array}{*{20}{c}} {256 \times 1 \times 1} \\ {256 \times 3 \times 3} \\ {1024 \times 1 \times 1} \end{array}} \right\} \times 6 $ Relu Conv5_x $ \left. {\begin{array}{*{20}{c}} {512 \times 1 \times 1} \\ {512 \times 3 \times 3} \\ {2048 \times 1 \times 1} \end{array}} \right\} \times 3 $ Relu CBAM 2048×1×1
7×7Sigmoid FC 2 Softmax 2.2 子领域自适应模块
本文使用局部最大均值差异来测量两领域间相关子领域的分布差异,其公式为:
$$ \begin{array}{l} {\text{LMM}}{{\text{D}}^2}\left( {{X^{\text{s}}}, {X^{\text{t}}}} \right) = \hfill \\ \frac{1}{C}\sum\limits_{c = 1}^C {\left\| {\sum\limits_{i = 1}^{{n_{\text{s}}}} {w_{c, i}^{\text{s}}\phi \left( {x_i^{\text{s}}} \right)} - \sum\limits_{j = 1}^{{n_{\text{t}}}} {w_{c, j}^{\text{t}}\phi \left( {x_j^{\text{t}}} \right)} } \right\|_H^2} \hfill \\ \end{array} $$ (5) 式中:C是两域的类别数;wc, jt和分别是样本xis和xjt属于类别c的权重,其计算公式为:
$$ {\omega _{c, i}} = \frac{{{y_{c, i}}}}{{\sum\limits_{\left( {{x_j}, {y_j}} \right) \in D} {{y_{c, j}}} }} $$ (6) 式中:yc, i是向量yi的第c项,$\sum\limits_{\left( {{x_j}, {y_j}} \right) \in D} {{y_{c, j}}} $是属于类别c的全部样本总和[15]。
本文使用真实标签yis的one-hot得出源域中c类样本的权重wc, is。目标域中样本由于没有标签,故无法使用yjt来计算目标域中对应的权重,但卷积神经网络的输出是概率分布,它可以表示样本xi属于某个类别的概率大小,故而使用卷积神经网络的Softmax分类器来预测目标域中的标签,从而得出样本xjt是c类的权重wc, jt。
对于输入的源域和目标域数据,经过本文改进的ResNet50网络的全连接层中提取得到对应特征zis和zjt,于是将其映射到可再生核希尔伯特空间进行特征对齐,因此可将公式(5)重新计算得到:
$$ \begin{array}{l} {\text{LMM}}{{\text{D}}^2}\left( {z_i^{\text{s}}, z_j^{\text{t}}} \right) = \frac{1}{C}\sum\limits_{c = 1}^C {\left\{ {\sum\limits_{i, j = 1}^{{n_{\text{s}}}} {\omega _{c, i}^{\text{s}}\omega _{c, j}^{\text{s}}\left\langle {\phi \left( {z_i^{\text{s}}} \right), \phi \left( {z_j^{\text{s}}} \right)} \right\rangle } } \right.} \hfill \\ + \sum\limits_{i, j = 1}^{{n_{\text{t}}}} {\omega _{c, i}^{\text{t}}\omega _{c, j}^{\text{t}}\left\langle {\phi \left( {z_i^{\text{t}}} \right), \phi \left( {z_j^{\text{t}}} \right)} \right\rangle } \hfill \\ - \left. {2\sum\limits_{i, j = 1}^{{n_{\text{s}}}, {n_{\text{t}}}} {\omega _{c, i}^{\text{s}}\omega _{c, j}^{\text{t}}\left\langle {\phi \left( {z_i^{\text{s}}} \right), \phi \left( {z_j^{\text{t}}} \right)} \right\rangle } } \right\} \hfill \\ = \frac{1}{C}\sum\limits_{c = 1}^C {\left\{ {\sum\limits_{i, j = 1}^{{n_{\text{s}}}} {\omega _{c, i}^{\text{s}}\omega _{c, j}^{\text{s}}} k\left( {z_i^{\text{s}}, z_j^{\text{s}}} \right) + } \right.} \sum\limits_{i, j = 1}^{{n_{\text{t}}}} {\omega _{c, i}^{\text{t}}\omega _{c, j}^{\text{t}}k\left( {z_i^{\text{t}}, z_j^{\text{t}}} \right)} \hfill \\ - \left. {2\sum\limits_{i, j = 1}^{{n_{\text{s}}}, {n_{\text{t}}}} {\omega _{c, i}^{\text{s}}\omega _{c, j}^{\text{t}}} k\left( {z_i^{\text{s}}, z_j^{\text{t}}} \right)} \right\} \hfill \\ \end{array} $$ (7) 2.3 网络模型的整体结构
本文通过融合CBAM注意力的ResNet50特征提取网络模块和子领域自适应模块,搭建了工件的缺陷检测模型,其结构如图 3所示,首先将注意力机制CBAM模块添加到ResNet50中,提取源域和目标域数据的深度特征,并将网络的参数共享,同时将子领域自适应层设在网络的全连接层[10],以便在此层中使用局部最大均值差异来实现两域中相关子领域的特征对齐,最后用网络模型中的Softmax分类器对金属板材料的红外热图像进行缺陷的检测识别。
2.4 模型的目标函数
通过2.3节介绍的模型结构可以知道在Softmax分类器中可以得到目标域的预测类别标签${\hat y^{\text{t}}}$,以此构建目标域的损失函数,并将LMMD作为子领域自适应层的损失函数,因此本文优化的目标函数为:
$$ \begin{array}{l} \min \frac{1}{{{n_{\text{s}}}}}\sum\limits_{i = 1}^{{n_{\text{s}}}} {J\left( {f\left( {x_i^{\text{s}}} \right), y_i^{\text{s}}} \right)} + \frac{1}{{{n_{\text{t}}}}}\sum\limits_{j = 1}^{{n_{\text{t}}}} {J\left( {f\left( {x_j^{\text{t}}} \right), \hat y_j^{\text{t}}} \right)} \hfill \\ + \lambda \sum {{d_{{\text{lmmd}}}}\left( {z_i^{\text{s}}, z_j^{\text{t}}} \right)} \hfill \\ \end{array} $$ (8) 式中:J(, )是交叉熵损失函数;dlmmd(, )是子领域自适应的分布距离函数;λ>0,是权衡超参数。
3. 实验
3.1 实验平台和数据采集
涡流热成像实验平台由涡流加热装置和红外热像仪组成,图 4为实验的涡流加热设备和有缺陷的金属板材料。实验时给装置通电,给被测金属材料涡流加热,然后用红外热像仪拍摄金属板材料的红外图像,从而得到实验的红外图像数据。
本文实验模拟工业生产设备的金属材料工件,选用并加工了有裂纹缺陷的金属板和无缺陷的完好的金属板作为实验中的两大类别,以此来验证本文提出网络模型的性能优劣。对工件材料加工时分别设置了有缺陷的裂纹长度为4 mm、8 mm、10 mm、20 mm,以满足不同长度裂纹缺陷的检测实验,提高实验的丰富性和可靠性,裂纹的宽度均为1.5 mm,考虑到加工误差,裂纹缺陷的尺寸会和标注数据有0.2 mm的误差,本实验加工的裂纹缺陷均在金属材料的表面。通过涡流设备对金属材料的加热和红外热像仪采集图像数据,本实验采集得到的红外图像分辨率为320×240,红外图像集分别有裂纹缺陷和无裂纹缺陷两种类型。在实际的机械设备运行过程中,工况多变,标记的故障样本量小,为此本文提出一种结合深度学习与域自适应的工件涡流热成像的缺陷检测方法,所以还需要选择一个相似的领域数据集来进行实验,于是选择了中科院自动化所收集的磁瓦数据集[16]作为其相似领域来进行迁移学习的实验。因本实验采集的数据集有无裂纹缺陷和有裂纹缺陷两种类别,所以从磁瓦数据集中也选用了对应的类别进行实验。同时由于实验采集的图像是彩色的RGB图像,因此需要先对磁瓦数据集的两种类型的黑白图像进行处理转化为RGB图像后再进行本文模型方法的相关实验,根据源域数据集相关资料,尽量还原了真实的RGB色彩,以便和本文的红外图像进行领域适应的迁移学习。如图 5为实验数据集示例。
本文中实验的两个领域的样本存在数目不均衡的问题,为了更好地训练模型,验证实验方法的性能,因此使用翻转、缩放、裁剪,旋转等一些数据增强的方式得到了相对均衡的数据样本。故最后得到磁瓦数据集的裂纹缺陷图像460张,无裂纹缺陷图像434张,本实验得到的金属板红外图像数据集的裂纹缺陷图像380张,无裂纹缺陷图像320张。将两域的数据集根据有无裂纹缺陷各自按照8:1:1的比例划分训练集,验证集和测试集。实验包含两种域迁移:磁瓦数据集→金属板数据集,金属板数据集→磁瓦数据集,因本文主要应用网上公开的缺陷数据集来实现对我所实验的金属材料红外图像的缺陷检测识别,所以更多关注的是从磁瓦数据集到金属板数据集的迁移任务的准确率。
3.2 实验配置和实验对比
本文实验都使用基于Python 3.7的Pytorch深度学习框架,CPU为i5-11400H,GPU为GeForce RTX 3060,RAM为16 GB。模型训练的迭代轮数保持一致,使用随机梯度下降法(Stochastic gradient descent,SGD),动量设置为0.9,学习率的调整公式为ρθ=ρ0/(1+αθ)β,其中训练时θ服从0到1的线性变化,ρ0=0.01, α=10, β=0.75。
为对比证明本文方法的优越性,于是设置了几组不同方法的模型来进行对比实验。一是经过网络数据集预训练后的微调ResNet50网络模型,二是度量距离为多核最大均值差异(Multipe Kernel Maximum Mean Discrepancy,MK-MMD)的DAN模型,三是未添加注意力机制,采用局部最大均值差异(Local Maximum Mean Discrepancy,LMMD)度量距离的ResNet50_LMMD模型,四是本文的添加CBAM注意力模块的改进ResNet50网络,用局部最大均值差异度量距离的模型。几种模型实验的环境条件和配置相同,实验设定100轮次,本文方法训练集和测试集的检测精度如图 6所示。可以看出,训练集和测试集在30轮左右达到稳定,且精度相差不大,说明模型是稳定可靠的。
各个不同模型的检测精度对比如表 2所示,可以明显看出本文提出的方法平均精度为88.52%,好于对比的其他模型,表明本文提出的模型通过对齐同类子领域,能得到领域间更细节的信息,使得不同领域间同类别联系更为紧密,不同类别间的类间距分得更开,同时和方法3相比可知添加注意力机制后检测精度得到大约1.3%的提升,验证了模型的优越性。同时图 7展示了磁瓦数据集到金属板数据集训练得到的准确率的对比效果,相同轮次下,可以看到其余方法在20个epoch左右达到收敛,随后细微振荡,而本文提出的方法收敛速度较慢,原因是在ResNet50网络基础上加入了CBAM注意力模块,增加了网络的复杂度,所以检测消耗的时间较不添加CBAM模块的时间增加了大约2.5 s,但是检测缺陷的准确率得到了提升。
表 2 不同模型的检测精度Table 2. Detection accuracy of different models% Methods Magnetic tile→sheet metal Sheet metal→magnetic tile Average accuracy ResNet50 63.93 59.18 61.56 DAN 78.19 73.53 75.86 ResNet50_LMMD 88.29 86.10 87.20 This paper 90.11 86.93 88.52 3.3 实验结果可视化
为了更加直观地体现出本文方法的优点,实验选择了源域为磁瓦数据集,目标域为本文采集的金属板的红外图像数据集作为可视化对比,利用t-SNE(t-distributed stochastic neighbor embedding)算法[17]将源域和目标域部分数据的特征值映射为二维空间,然后在二维空间里将其特征可视化。几种对比方法的特征可视化效果如图 8所示,其中S代表源域,T代表目标域,S-0表示源域中无缺陷的样本,S-1表示源域中裂纹缺陷的样本。由图可知,仅采用经过预训练微调的ResNet50模型提取通用特征能力强,一个域内的同类别间的聚类效果好,但不同领域相同类别就没有很好地聚类。采用多核MMD(MK-MMD)的DAN模型展现出一定的特征对齐能力,但未考虑两域子领域的分布对齐,不同领域的同类别间聚类效果不是很好。而采用子领域自适应模型的ResNet50_LMMD和本文方法在对齐全局域分布的同时还实现了对齐同类子领域的分布,另外本文方法融入注意力机制,提升了特征提取能力,可以看出两域间相同类别密切地聚集在一起,得到了不错的聚类效果,充分证实了本文方法的有效性和优越性。
4. 结论
通过引入特征迁移学习思想,建立局部最大均值差异衡量指标,缩小了源域和目标域数据特征间的分布差异,实现了相关子域的分布对齐。基于特征迁移学习思想建立的金属板材料裂纹的缺陷识别模型,解决了数据集中裂纹缺陷样本量少,训练和测试样本难以同分布的问题。提出的基于深度学习与子领域自适应的工件涡流热成像的缺陷检测模型,在ResNet50网络添加CBAM注意力机制,提高了模型对于缺陷区域特征的关注度,可以聚焦于缺陷特征的提取,提升模型缺陷检测能力。通过相关实验对比,并使用t-SNE算法对几种对比实验提取的特征进行可视化,验证了所提模型的有效性,提升了金属板材料裂纹缺陷的检测精度。
-
表 1 三代微光像增强器系列产品技术指标[1-2]Fig. 1 Photos of third-generation low-light image intensifier series products[1-2]
Performance parameters F9810 series
YHF9810 series
VHF9800 series
M22HF9800 series
M24HF9815 series
M22HF9815 series
M24HSensitivity/(µA·lm-1) ≥1800 ≥2000 ≥2200 ≥2200 ≥2200 ≥2200 Radiation sensitivity/(mA·W-1)@880 nm ≥80 ≥100 ≥120 ≥120 120 ≥120 ultimate resolution/(lp·mm-1) ≥64 ≥64 ≥64 ≥64 ≥64 ≥64 High illumination resolution/(lp·mm-1)(@200 lx) ≥36 ≥36 ≥40 ≥40 ≥40 ≥40 Signal-to-noise ratio ≥25 ≥25 31.2−34.3 34.4−37.5 31.2−34.3 34.4−37.5 Quality factor - - 2200 2400 2200 2400 Power supply automatic gate control automatic gate control automatic gate control automatic gate control automatic gate control automatic gate control Effective cathode diameter/mm ≥17.5 ≥17.5 ≥17.5 ≥17.5 ≥17.5 ≥17.5 Reliability ≥10000 ≥10000 ≥10000 ≥10000 ≥10000 ≥10000 -
[1] Elbit America. Night vision[EB/OL] [2024-12-08]. https://www.elbitamerica.com/night-vision.
[2] 金伟其, 刘广荣, 王霞, 等. 微光像增强器的进展及分代方法[C]// 全国光电技术学术交流会暨全国红外科学技术交流会, 2004, 30(4): 460-466. JIN W Q, LIU G R, WANG X, et al. Image intensifier's progress and division of generations[C]//Optical Technique, 2004, 30(4): 460-466.
[3] Ferziger J, Waldman P. How do Israel's tech firms do business in Saudi Arabia? Very quietly[J]. Americas, 2000, 1(212): 318.
[4] Martin J S, Beasley H H, Verona R W, et al. Semiautomated methodology for measurement of field-of -view, magnification, and distortion of night vision devices as defined in MIL-A_49425 (CR)[R]. Fort Rucker, AL: US Army Aeromedical Research Laboratory. USAARL Report, 1994 (94-25).
[5] 何晓骁. 美国空军的夜视夜战装备及训练[J]. 国际航空, 2020(7): 4. HE X X. USAF night vision equipment and training[J]. International Aviation, 2020(7): 4.
[6] Redden E S, Elliott L R. Night Vision Goggle Design: Overcoming the Obstacle of Darkness on the Ground[M]//Designing Soldier Systems. CRC Press, 2018: 135-156.
[7] 唐永滋. 美军微光夜视技术的发展及装备应用[J]. 云光技术, 2020, 52(2): 6-13. TANG Y Z. Development and equipment application of low-light-level night vision technology of the US military[J]. YunGuang Jishu, 2020, 52(2): 6-13.
[8] White R, Bedard L, Derrah S, et al. Defense Technology Opportunities for First Responders: ADA437615 [R]. Naval Sea Systems Command and Various Defense Organizations, 2004: 1-84.
[9] Gaston J, Foots A, Stachowiak C, et al. Aural-Nondetectability Model Predictions for Night-Vision Goggles across Ambient Lighting Conditions: ARL-TR-7564 [R]. U. S. Army Research Laboratory, 2015: 123-130.
[10] Morrow W B. Night vision goggles (AN/PVS-7)- Performance issues and answers: AMSEL-NV -TR-0075[R]. Fort Belvoir, VA: CECOM Center for Night Vision and Electro-Optics, Visionics Division. (DTIC No. AD-A206 117), 1989.
[11] Redden E S. Safety Assessment of Wearing the AN/PVS-14 Monocular Night Vision Device (MNVD) and AN/AVS-6 Aviator's Night Vision Imaging System (ANVIS) During 5-Ton and HMMWV Night Driving: ARLTR-2580[R]. Aberdeen Proving Ground, MD: US Army Research Laboratory, 2002.
[12] Estrera J P, Ostromek T E, Isbell W, et al. Modern night vision goggles for advanced infantry applications[C]// Helmet-and Head-Mounted Displays Ⅷ: Technologies and Applications of SPIE, 2003, 5079: 196-207.
[13] L3 Harris. Enhanced Night Vision Goggle (ENVG) AN/PSQ-20B [EB/OL]. [2024-12-12]. https://www.l3harris.com/all-capabilities/en-hanced-night-vision-goggle-envg-an-psq-20b.
[14] L3 Harris Technologies. Enhanced Night Vision Goggle-Binocular (ENVG-B) [EB/OL]. [2024-12-12]. https://www.l3harris.com/all-capabilities/enhanced-night-vision-goggle-binocular-envg-b.
[15] Krebs, W. R. Development of a Night Vision Goggle Heads-Up Display for Paratrooper Guidance : ADA487563 [R]. Defense Technical Information Center, 2008.
[16] Hamilton J A, Roush G, Kinney L M J, et al. Comparison of night vision technology for close-quarters combat operations: How field of view impacts live-fire scenarios[J]. Human Factors and Mechanical Engineering for Defense and Safety, 2020(4): 1-15. DOI: 10.1007/s41314-020-00036-z
[17] Rozelle D R. A Methodology for Improving the Usability of The ANVIS/HUD Computer Based Trainer[D]. California: Naval Postgraduate School Monterey, 1997.
[18] Intevac. Military products [EB/OL]. [2024-12-12]. https://www.intevac.com/intevacphotonics/military/.
[19] James Moniz, Claire McAdams. Intevac Photonics Announces Two New Development Awards in Support of IVAS [EB/OL]. [2021-06-23]. [2022-06-23]. https://www.businesswire.com/news/home/20210623005321/en/Intevac-Photonics-Announces-Two-New-Development-Awards-in-Support-of-IVAS.
[20] Ratches J A. Night vision modeling: historical perspective[C] //Infrared Imaging Systems: Design, Analysis, Modeling, and Testing X of SPIE, 1999, 3701: 2-12.
[21] Intevac Photonics. Digital Night Vision Goggles (DNVG) [EB/OL]. (n. d. ) [2024-12-11]. https://www.intevac.com/Intevacphotonics/military/dnvg/.
[22] Armentrout J J. An investigation of stereopsis with AN/AVS-6 night vision goggles at varying levels of illuminance and contrast[D]. Virginia: Virginia Tech, 1993.
[23] Sabatini R, Richardson M A, Cantiello M, et al. A novel approach to night vision imaging systems development, integration and verification in military aircraft[J]. Aerospace Science and Technology, 2013, 31(1): 10-23. DOI: 10.1016/j.ast.2013.08.021
[24] Castelli C J. Report sent to congress: DOD concludes night-vision industry must shed more excess capacity[J]. Inside the Army, 2012, 24(41): 12-14.
[25] Slocombe G. Night fighting equipment: Research and technology developments for the ADF[J]. Asia-Pacific Defence Reporter (2002), 2019, 45(10): 22-25. http://www.nstl.gov.cn/paper_detail.html?id=864041d0ed70d2ed39332cdb353dc1bc
[26] Slocombe G. Land 53 phase1br: Adf night fighting equipment replacement[J]. Asia-Pacific Defence Reporter (2002), 2017, 43(10): 22-24.
[27] REN B, JIAO G, LI Y, et al. Research progress of true color digital night vision technology[C]//Seventh Symposium on Novel Photo- electronic Detection Technology and Applications of SPIE, 2021, 11763: 1710-1720.
[28] Military and Law. MNV-K Night Vision Device [EB/OL]. (n. d. ) [2024-12-11]. https://www.militaryandlaw.com.au/shop/item/mnv-k-night-vision-device/.
[29] Military and Law. LLC Katod releases the latest version of lightweight MNV-SR Night Vision Device & Night Vision Goggle [EB/OL]. [2016-02-24]. [2024-12-11]. https://www.militaryandlaw.com.au/arti-cle/llc-katod-release-latest-version-of-lightweight-mnv-sr-night-vision-device-and-night-vision-goggle.
[30] Military and Law. MNV-S Night Vision Device Brochure (PDF) [R/OL]. (n. d. )[2024-12-11]. https://www.militaryandlaw.com.au/files/brochures/katod/mnv-s.pdf.
[31] Photonis Defense. TacFusion: The newest handheld binocular combining low-light camera core and thermal imaging sensor [EB/ OL]. [2021-11-30]. [2024-12-11]. https://www.photonisdefense.com/newsroom/Blog4/Photonis-Defense-releases-TacFusion-the-newest-handheld-binocular-combining-low-light-camera-core-and-thermal-imaging-sensor.
-
期刊类型引用(1)
1. 翁岩松,杨洁. 基于深度学习的改进卫星检测方法. 航空电子技术. 2024(04): 1-8 . 百度学术
其他类型引用(0)