Development of Low-Light-Level Night Vision Equipment Abroad
-
摘要:
微光夜视装备水平在很大程度上决定着部队在夜间的作战能力。在现代战争中,国外军事强国为了实现夜间“单向透明”到“独享黑夜”的飞跃提升,近年来都在大力发展微光夜视装备。本文回顾了国外微光夜视装备发展历程与技术进步,重点对近年来美国、俄罗斯、法国这3个国家微光夜视装备发展现状进行了梳理,探讨了微光夜视装备研发中的具体投入、技术创新路径以及实际应用情况,通过比较分析各国在微光夜视装备技术上的发展经验,对我国微光夜视装备发展有所借鉴和启示。分析可见,微光夜视技术在提升夜间作战能力和安全保障方面具有重要意义,在军事领域具有重要作用。
Abstract:The combat capability of a military at night is largely determined by the quality of low-light night-vision equipment. In contemporary military conflicts, various countries with sophisticated capabilities have been actively advancing low-light night vision equipment to achieve a substantial transition from "one-way transparency" to "exclusive control of the night." This study systematically reviews the global development history and technological progress of low-light night vision equipment, focusing on the progression and current state of development in three countries: the United States, Russia, and France. It also explores specific investments, technological innovation paths, and actual applications in the development of low-light night vision equipment across these nations. By comparing and analyzing the developmental experiences of various countries regarding low-light night vision equipment technology, this study offers a reference and inspiration for the development of low-light night vision equipment in China. This comprehensive analysis demonstrates that low-light night vision technology is crucial in augmenting the combat capability of the military at night and guaranteeing national security, indicating that low-light night vision technology will play a crucial role in the military domain in the future.
-
0. 引言
电力系统大部分事故是由电力设备故障引起的,而电力设备故障时具有局部发热特性,这使得利用红外图像处理技术对电力设备进行智能故障检测成为未来的发展趋势[1-3]。红外图像分割作为电力设备故障识别分析的关键步骤,其结果将对后续故障识别的精准度起关键性作用。然而,由于红外图像对比度低、边缘模糊等特点的限制,很难得到准确的分割结果,加上运行中的电力设备不同部位发热情况不同,导致红外图像信息量更加复杂[4-6]。因此,如何精准地分割电力设备红外图像是故障诊断中重要的一环。
近年来,国内外学者提出了许多分割的方法,可分为基于阈值的分割方法[7-8],基于边缘的分割方法[9-10],基于深度学习的分割方法[11-12],基于聚类的分割方法[13-14]。由于电力设备红外图像对比度低、边缘细节模糊,因此基于阈值、边缘的分割方法并不适用于电力设备红外图像分割处理。而基于深度学习的分割方法需要大量的训练样本和标签图像,有一定局限性。本文主要讨论基于聚类的分割方法。
文献[15]提出的模糊C均值聚类算法(FCM)广泛应用于电力、军事、医学影像等诸多领域,具有实现简单,占用内存小等优点,但由于算法初始聚类中心为随机生成,容易使目标函数陷入局部最优解,且在聚类过程中只考虑了单一的灰度信息,导致其对复杂目标的分割效果不佳。为改善FCM算法存在的问题,Q. Wang等人[16]提出一种带有自适应空间和强度约束及成员链接的FCM聚类算法(FCM_SICM),提升了算法的分割精度及抗噪性。T. Lei等人[17]提出一种基于形态学重建和隶属度滤波的改进FCM算法(FRFCM),用空间邻域的局部隶属度滤波代替空间邻域内像素与聚类中心之间的距离,提升了算法的鲁棒性及边缘轮廓的分割效果。但FCM_SICM、FRFCM算法运用在电力设备红外图像上时都有一个共同的缺陷:只能分割出设备轮廓,无法获取设备局部高温区域。X. Jia等人[18]提出一种基于超像素的快速FCM彩色图像分割(SFFCM),定义了多尺度形态学操作获取图像超像素用于FCM算法中,在提供更好的自适应空间信息的同时,简化了原始彩色图像,提升了对彩色图像的分割效率及精准度。该方法虽然对彩色图像分割有一定优势,但对于由亮度变化映射温度变化的红外图像,容易丢失图像的温度信息。
针对FCM算法存在的问题及红外图像自身的特性,本文提出了一种适用于电力设备红外图像的基于超像素的改进FCM分割方法。首先提出了一种多特征融合的SNIC超像素算法对红外图像进行预分割,用少量的超像素代替像素表达图片特征,降低后续处理复杂度。其次,运用最大类间方差的思想选取类间方差最大时灰度直方图对应的灰度值作为改进算法的聚类中心。最后,将多特征融合的SNIC算法与FCM算法结合,精确分割设备轮廓与局部高温区域,在保留图像语义信息的基础上快速定位热故障区域,实现电力设备红外图像分割。
1. 改进的SNIC超像素预分割
传统FCM方法通常会忽略图像的局部空间信息,导致分割效果不佳。许多学者通过将局部空间信息引入到FCM的目标函数解决此问题,但又增加了计算复杂度。而超像素把一幅像素级的图划分成区域级的图,将计算复杂度从几十万像素减少到几百个超像素,提升了后续图像的处理速度。相比用单个离散像素表示图像,超像素剔除了一些异常像素点,更加考虑了相邻像素点的局部特征,提供了良好的局部空间信息。因此,本文结合超像素处理思想,提出一种多特征融合的简单非迭代聚类(SNIC)算法对原始红外图像进行超像素预分割。
1.1 SNIC算法
SNIC是Achanta等人[19]在2017年提出的基于简单线性迭代聚类(simple linear iterative clustering,SLIC)的改进版算法,该算法通过计算像素点与聚类中心的CIELab颜色空间距离及空间欧氏距离对像素点进行区分,并引入像素点优先级队列实时更新聚类中心,从聚类开始就要求超像素区域强制连接,增强了超像素间的连通性,无需迭代收敛聚类中心。
SNIC算法虽节省时间和空间成本,但仅依赖于CIELab颜色特征和空间位置特征对像素点进行区分,对像素点的特征表示不够充分[20]。电力设备红外图像存在对比度低、边缘轮廓模糊等特性,用传统SNIC算法处理电力设备红外图像不能较好地贴合图像边缘,造成局部信息缺失,影响后续FCM算法的分割精度。为此,本文提出一种多特征融合的SNIC超像素算法,该算法保留SNIC非迭代聚类框架的优势,引入边缘轮廓特征、形态学背景特征,增强算法对目标边缘的敏感度及背景信息的处理能力。
1.2 改进的SNIC算法
任一像素点i的特征由一个七维向量i=[li, ai, bi, xi, yi, Gi, Ti]来表示,其中[li, ai, bi]表示像素点的CIELAB颜色特征,[xi, yi]表示像素点的空间位置特征;Gi表示像素点的边缘轮廓特征;Ti表示像素点的形态学背景特征。各特征具体表示形式及特征距离度量如下:
1)颜色特征。CIELAB空间中颜色特征用向量C=[l, a, b]表示,其中l表示亮度,a表示从绿色到红色的分量,b表示从蓝色到黄色的分量。任一像素点i与任一聚类中心k的颜色特征距离定义为:
$$ {d_{\rm{c}}}(i, k) = \sqrt {{{({l_i} - {l_k})}^2} + {{({a_i} - {a_k})}^2} + {{({b_i} - {b_k})}^2}} $$ (1) 2)空间位置特征。空间距离对于控制每块超像素的规则性和紧凑性有重要意义,空间位置特征由向量X=[x, y]表示,任一像素点i与任一聚类中心k的空间位置特征距离定义为:
$$ d_s(i, k)=\sqrt{\left(x_i-x_k\right)^2+\left(y_i-y_k\right)^2} $$ (2) 3)边缘轮廓特征
当相邻像素的颜色十分接近时,很难通过颜色区分像素间的边缘轮廓,导致边缘信息丢失。为了找到一条可区分像素的轮廓线,引入边缘轮廓特征g。Sobel算子是像素图像边缘检测中最重要的算子之一,对任意像素点使用此算子,将会产生对应的灰度矢量。设定红外图像任意像素点为i,边缘轮廓特征为gi,i的梯度值为:
$$ \nabla f=\left[\frac{\partial f}{\partial x}, \frac{\partial f}{\partial y}\right]=\left[G_x, G_y\right] $$ (3) $$ G=\sqrt{G_x^2+G_y^2} $$ (4) 对像素点i分解后得出水平方向与垂直方向的梯度值Gx、Gy,再通过式(4)计算出G,通过G检测像素点的边缘。
因此,任一像素点i与任一聚类中心k的边缘轮廓特征距离定义为:
$$ d_G(i, k)=\left\|G_i-G_k\right\| $$ (5) 4)形态学背景特征
电气设备红外图像中,背景一般为不均匀背景,目标一般为亮度大的目标,非常适合用形态学顶帽变化来消除背景不均匀带来的影响,从而突显目标区域。因此引入形态学背景特征T。
首先使用结构元素e对红外图像I进行形态学开运算操作,其表达式为:
$$ I_{\text {open }}(x, y)=I(x, y) \oplus e $$ (6) 再进行顶帽变换操作,表达式为:
$$ T_{\text {hat }}=I(x, y)-I_{\text {open }}(x, y) $$ (7) 因此,任一像素点i与任一聚类中心k的形态学背景特征距离定义为:
$$ d_T(i, k)=\left\|T_i-T_k\right\| $$ (8) 综上所述,任一像素点i=[li, ai, bi, xi, yi, Gi, Ti]到任一聚类中心k=[lk, ak, bk, xk, yk, Gk, Tk]的整体特征距离可以表示为:
$$ \begin{aligned} & d(i, k)= \\ & \sqrt{\left(\frac{d_c(i, k)}{m_c}\right)^2+\left(\frac{d_s(i, k)}{s}\right)^2+\left(\frac{d_G(i, k)}{\lambda_1}\right)^2+\left(\frac{d_T(i, k)}{\lambda_2}\right)^2} \end{aligned} $$ (9) 式中:mc表示颜色距离归一化因子,mc的取值越大,产生的超像素块越紧凑、越规则;mc的取值越小,产生的超像素块越贴合图像边缘,越不规则。s表示空间距离归一化因子,$ s=\sqrt{N / K}$,N为图像的像素点个数,K为超像素个数。λ1、λ2分别表示边缘轮廓和形态学背景特征距离的归一化因子。
基于式(9),提出多特征融合的SNIC超像素算法步骤可以总结为以下几点:
步骤1:输入红外图像I,设置参数K、mc的值。
步骤2:获取像素点颜色特征[l, a, b]、空间位置特征[x, y],由式(4)、式(7)计算像素点的边缘轮廓特征G、形态学背景特征T。
步骤3:在全图均匀网格中初始化K个聚类中心C[k]=[lk, ak, bk, xk, yk, Gk, Tk],赋予这些中心点1~k的标签信息。
步骤4:通过K个聚类中心创建K个元素Ok={lk, ak, bk, xk, yk, Gk, Tk, k, di, k},构建一个优先级队列Q储存元素Qk。当队列Q非空时,执行步骤5。
步骤5:推出优先级队列Q的顶端元素Oi,若推出元素未分配类标签,则根据式(9)计算di, k并将特征距离最近的中心点的标签信息分配给该元素,将其标记为新的聚类中心。
步骤6:将推出元素的4邻域像素点中未分配标签的像素点推入队列Q,按照di, k由小到大的顺序进行推出。
步骤7:依次推出优先级队列Q的顶端元素,直到所有像素点均被分配标签信息。当Q为空时,算法停止,输出超像素标签图。
2. 针对电力设备红外图像的改进FCM
在实际工况中,运行中的电力设备红外图像情况复杂,设备结构和形状信息对比度低、不均匀的散热使目标强度分布不均匀。加上传统FCM存在容易对初始聚类中心选取不佳而陷入局部最优解,只考虑单一灰度信息等问题,使红外分割更加困难。本文针对以上问题提出改进措施,主要包括采用最大类间方差的思想自适应选取初始聚类中心;将依赖于局部特征的改进SNIC超像素与依赖于全局特征的FCM相结合。图 1为本文算法流程图。
2.1 自适应选取初始聚类中心
FCM是基于目标函数的聚类算法,算法以初始聚类中心为划分起点,每一次迭代都朝着目标函数减小的方向进行。当初始聚类中心选在一个局部极小值点附近时,容易得到局部最优解而无法得到全局最优解。针对此问题,本文提出一种自适应选取初始聚类中心的方法。
运用最大类间方差思想,当类间方差最大时,不同类别区域间的差别最大,选取此时不同区域的灰度直方图最大值对应的灰度值作为初始聚类中心能在很大程度上避免目标函数陷入局部最优解。类间方差的表达式为:
$$ {\sigma_{\mathrm{B}}}^2=\sum\limits_{f=1}^F P_f\left(m_f-m_G\right)^2 $$ (10) 式中:mf表示第f类区域的像素均值;mG表示图像全局的像素均值;Pf表示概率分布函数。
设聚类数目为c,始聚类中心集合为P={p1, p2, …, pc},灰度直方图{histt}(t=0, 1, …, 255),$ \bar{W}=\left\{d_1, d_2, \cdots d_k\right\}$,$ \bar{W}$为存放类间方差最大时所对应的直方图区间集合,$ \bar{W}$=i,i表示集合内元素个数。根据式(10)计算图像灰度级的最大类间方差,可将图像的灰度直方图划分为两个子集,$ d_1=\left\{\text {hist}_{0 \sim t}\right\}$,$ d_2=\left\{\text {hist}_{t \sim 255}\right\}$。此时,集合$ \bar{W}$中元素个数i=2,可获得初始聚类中心个数为2。若需获得多个初始聚类中心,选取$ \bar{W}$的最大子集max $ \bar{W}$,计算其最大类间方差,可将该子集划分为新的两个子集,此时该子集对应的单个初始聚类中心更新为两个新的初始聚类中心。当集合$ \bar{W}$中元素个数符合预设聚类数目要求时,选取$ \bar{W}$内全部元素所对应灰度直方图最大值所在的灰度值作为初始聚类中心p1, p2, …, pc。
2.2 结合多特征融合SNIC的改进FCM算法
本文用改进SNIC超像素算法作为预分割,不仅为FCM提供了良好的局部邻域信息还简化了原始图像,将改进SNIC与FCM算法结合得到的目标函数为:
$$ J(U, P)=\sum\limits_{i=1}^c \sum\limits_{j=1}^d S_j {u^m}_{i j}\left\|x_{M j}-p_i\right\|^2 $$ (11) 式中:c表示聚类数目;d表示超像素的区域数;Sj表示由改进SNIC得到的超像素图像中第j个超像素区域的像素数;m表示加权指数;uij表示第j个超像素区域和第i个聚类中心点之间的隶属度关系;xMj表示第j个超像素区域的像素中值;pi表示第i个聚类中心。
由于原图中的像素被超像素图像中相应区域内的像素中值所取代,d≪n,(d是超像素的区域数,n是图像的像素数)因此计算复杂度得到有效降低。
使用拉格朗日乘子法推导式(11)可得:
$$ \tilde{J}(U, P)=\sum\limits_{i=1}^c \sum\limits_{j=1}^d S_j u^m{ }_{i j}\left\|x_{M j}-p_i\right\|^2-\lambda\left(\sum\limits_{i=1}^c u_{i j}-1\right) $$ (12) 式中:λ是拉格朗日乘数,分别计算$ \tilde{J}$对uij和λ的偏微分方程:
$$ \frac{\partial \tilde{J}}{\partial u_{i j}}=\sum\limits_{i=1}^c \sum\limits_{j=1}^d \frac{\partial S_j u^m{ }_{i j}\left\|\left(X_{M j}-p_i\right)\right\|^2}{\partial u_{i j}}-\lambda=0 $$ (13) $$ \frac{\partial \tilde{J}}{\partial \lambda}=\sum\limits_{i=1}^c u_{i j}-1=0 $$ (14) 联立式(12)(13)(14),求得隶属度函数uij与聚类中心pi的更新公式为:
$$ u_{i j}=\frac{\left\|x_{M j}-p_i\right\|^{\frac{-2}{(m-1)}}}{\sum\limits_{j=1}^c\left\|x_{M j}-p_j\right\|^{ \frac{-2}{(m-1)}}} $$ (15) $$ p_i=\frac{\sum\limits_{j=1}^d u^m{ }_{i j} x_{M j}}{\sum\limits_{j=1}^d S_j u^m{ }_{i j}} $$ (16) 根据公式(11)(15)(16),所提出基于改进SNIC的FCM算法步骤如下:
步骤1:将改进SNIC输出的超像素图像灰度化后作为输入,初始化参数,加权指数m=2,迭代停止的阈值ε=0.001,最大迭代次数T=max,聚类数目c。
步骤2:根据章节2.1确定初始聚类中心p1。
步骤3:根据式(15)计算隶属度矩阵U。
步骤4:根据式(16)更新聚类中心pi。
步骤5:根据式(11)计算目标函数J,若$ \left|J^{(T)}-J^{(T+1)}\right|<\varepsilon$或迭代次数t>T则算法结束。否则t=t+1,返回步骤3执行。
3. 实验结果与分析
实验环境为MATLAB R2019a,硬件为Intel(R)Core I7-4720HQ,2.60 GHz,四核八线程处理器。采用的数据集为本实验室用FLIR T360红外热像仪在变电站拍摄的包含隔离开关、设备线夹、套管触头、发电机等200幅电力设备红外图像,每幅图片的大小均为320像素×240像素。为了检验本文算法的性能,将实验结果与FCM、FCM_SICM、FRFCM、SFFCM这4种聚类分割方法的结果进行对比分析。为了更客观分析算法性能,本文采用交互比(intersection over union, IOU)、DICE系数作为评价指标,表示为:
$$ \mathrm{IOU} =\frac{|A \bigcap B|}{|A \bigcup B|} $$ (17) $$ \text { DICE } =\frac{2|A \bigcap B|}{|A|+|B|} $$ (18) 式中:A为分割后的图像像素集合;B为标准图像像素集合。IOU用来衡量分割结果准确性,DICE系数用来评价分割结果的优劣,两个指标的取值范围都为[0, 1]。IOU、DICE系数的值越大,分割效果越理想。各类电力设备红外图像的分割结果如图 2~图 5所示。
图 2、图 3中,隔离开关与套管触头由于热传导的物理性质不同,造成其红外图像强度分布不均匀,热量分界模糊、边缘轮廓不清晰。图 4、图 5中,由于红外图像对比度低的特性,发电机与设备线夹的部分轮廓融入背景,难以区分其边界轮廓与背景。由图 2~图 5可见,对于FCM、FCM_SICM、FRFCM、SFFCM算法,当不同类别的初始聚类中心随机生成的位置非常接近时,极易呈现局部高温区域与设备融为一体的欠分割结果。本文算法通过选取合适的初始聚类中心,并使用了预分割提供的自适应局部空间信息,所呈现的结果既能分割出设备轮廓,又能分割出设备局部高温故障区域,图像完整,轮廓清晰,没有出现丢失关键信息的现象,对于图像的边缘也保留了更多细节,能清晰捕捉热故障区域在设备中的位置,实现热故障的快速定位,满足图像分割的要求。为了更客观地比较各算法的性能,表 1为各算法分割红外图像的DICE和IOU,表 2为各算法执行所用平均时间。
表 1 各类红外图像分割效果Table 1. Various infrared image segmentation effectsImage type FCM FCM_SICM FRFCM SFFCM Ours IOU DICE IOU DICE IOU DICE IOU DICE IOU DICE Isolation switch 0.7996 0.8587 0.9062 0.9368 0.8046 0.8649 0.9219 0.9548 0.9434 0.9765 Casing contact 0.8693 0.8947 0.8436 0.8768 0.9103 0.9471 0.9271 0.9528 0.9326 0.9573 Generator 0.8769 0.8945 0.8503 0.8793 0.8784 0.8972 0.9241 0.9451 0.9472 0.9642 Device clamp 0.8301 0.8794 0.8479 0.8839 0.2511 0.2949 0.2224 0.2648 0.9154 0.9547 表 2 各算法平均运行时间Table 2. Running mean time of different algorithmsAlgorithm Mean time/s FCM 7.5763 FCM_SICM 23.6383 FRFCM 11.1746 SFFCM 5.4785 Ours 4.2954 从表 1可以看出,本文算法分割结果的IOU和DICE系数高于对比算法,说明本文算法性能更优,在分割效果以及精度方面有明显改进。由于本文将图像基于像素级聚类替换为基于超像素级聚类,并选取合适的初始聚类中心,因此从表 2可以看出本文算法较于对比算法,减少了运行时间、提升了运行效率。
4. 结论
本文提出了一种适用于电力设备红外图像的基于超像素的改进FCM分割方法,引入多特征融合的SNIC超像素算法对红外图像进行预分割,减少局部冗余信息、增加后续运算效率。并通过最大类间方差的思想选取本文算法的初始聚类中心,解决传统FCM算法因初始化不佳而陷入局部最优解的问题。实验结果表明,所提出的算法有效可行,且与FCM、FCM_SICM、FRFCM、SFFCM算法相比提升了分割精度和分割效率。本文算法不仅适用于从复杂环境中分割出电力设备轮廓,同时也能清晰捕捉热故障区域在设备中的位置,在保留图像语义信息的基础上快速定位热故障区域,在实际电力设备红外故障诊断中有一定的应用前景。
-
表 1 三代微光像增强器系列产品技术指标[1-2]Fig. 1 Photos of third-generation low-light image intensifier series products[1-2]
Performance parameters F9810 series
YHF9810 series
VHF9800 series
M22HF9800 series
M24HF9815 series
M22HF9815 series
M24HSensitivity/(µA·lm-1) ≥1800 ≥2000 ≥2200 ≥2200 ≥2200 ≥2200 Radiation sensitivity/(mA·W-1)@880 nm ≥80 ≥100 ≥120 ≥120 120 ≥120 ultimate resolution/(lp·mm-1) ≥64 ≥64 ≥64 ≥64 ≥64 ≥64 High illumination resolution/(lp·mm-1)(@200 lx) ≥36 ≥36 ≥40 ≥40 ≥40 ≥40 Signal-to-noise ratio ≥25 ≥25 31.2−34.3 34.4−37.5 31.2−34.3 34.4−37.5 Quality factor - - 2200 2400 2200 2400 Power supply automatic gate control automatic gate control automatic gate control automatic gate control automatic gate control automatic gate control Effective cathode diameter/mm ≥17.5 ≥17.5 ≥17.5 ≥17.5 ≥17.5 ≥17.5 Reliability ≥10000 ≥10000 ≥10000 ≥10000 ≥10000 ≥10000 -
[1] Elbit America. Night vision[EB/OL] [2024-12-08]. https://www.elbitamerica.com/night-vision.
[2] 金伟其, 刘广荣, 王霞, 等. 微光像增强器的进展及分代方法[C]// 全国光电技术学术交流会暨全国红外科学技术交流会, 2004, 30(4): 460-466. JIN W Q, LIU G R, WANG X, et al. Image intensifier's progress and division of generations[C]//Optical Technique, 2004, 30(4): 460-466.
[3] Ferziger J, Waldman P. How do Israel's tech firms do business in Saudi Arabia? Very quietly[J]. Americas, 2000, 1(212): 318.
[4] Martin J S, Beasley H H, Verona R W, et al. Semiautomated methodology for measurement of field-of -view, magnification, and distortion of night vision devices as defined in MIL-A_49425 (CR)[R]. Fort Rucker, AL: US Army Aeromedical Research Laboratory. USAARL Report, 1994 (94-25).
[5] 何晓骁. 美国空军的夜视夜战装备及训练[J]. 国际航空, 2020(7): 4. HE X X. USAF night vision equipment and training[J]. International Aviation, 2020(7): 4.
[6] Redden E S, Elliott L R. Night Vision Goggle Design: Overcoming the Obstacle of Darkness on the Ground[M]//Designing Soldier Systems. CRC Press, 2018: 135-156.
[7] 唐永滋. 美军微光夜视技术的发展及装备应用[J]. 云光技术, 2020, 52(2): 6-13. TANG Y Z. Development and equipment application of low-light-level night vision technology of the US military[J]. YunGuang Jishu, 2020, 52(2): 6-13.
[8] White R, Bedard L, Derrah S, et al. Defense Technology Opportunities for First Responders: ADA437615 [R]. Naval Sea Systems Command and Various Defense Organizations, 2004: 1-84.
[9] Gaston J, Foots A, Stachowiak C, et al. Aural-Nondetectability Model Predictions for Night-Vision Goggles across Ambient Lighting Conditions: ARL-TR-7564 [R]. U. S. Army Research Laboratory, 2015: 123-130.
[10] Morrow W B. Night vision goggles (AN/PVS-7)- Performance issues and answers: AMSEL-NV -TR-0075[R]. Fort Belvoir, VA: CECOM Center for Night Vision and Electro-Optics, Visionics Division. (DTIC No. AD-A206 117), 1989.
[11] Redden E S. Safety Assessment of Wearing the AN/PVS-14 Monocular Night Vision Device (MNVD) and AN/AVS-6 Aviator's Night Vision Imaging System (ANVIS) During 5-Ton and HMMWV Night Driving: ARLTR-2580[R]. Aberdeen Proving Ground, MD: US Army Research Laboratory, 2002.
[12] Estrera J P, Ostromek T E, Isbell W, et al. Modern night vision goggles for advanced infantry applications[C]// Helmet-and Head-Mounted Displays Ⅷ: Technologies and Applications of SPIE, 2003, 5079: 196-207.
[13] L3 Harris. Enhanced Night Vision Goggle (ENVG) AN/PSQ-20B [EB/OL]. [2024-12-12]. https://www.l3harris.com/all-capabilities/en-hanced-night-vision-goggle-envg-an-psq-20b.
[14] L3 Harris Technologies. Enhanced Night Vision Goggle-Binocular (ENVG-B) [EB/OL]. [2024-12-12]. https://www.l3harris.com/all-capabilities/enhanced-night-vision-goggle-binocular-envg-b.
[15] Krebs, W. R. Development of a Night Vision Goggle Heads-Up Display for Paratrooper Guidance : ADA487563 [R]. Defense Technical Information Center, 2008.
[16] Hamilton J A, Roush G, Kinney L M J, et al. Comparison of night vision technology for close-quarters combat operations: How field of view impacts live-fire scenarios[J]. Human Factors and Mechanical Engineering for Defense and Safety, 2020(4): 1-15. DOI: 10.1007/s41314-020-00036-z
[17] Rozelle D R. A Methodology for Improving the Usability of The ANVIS/HUD Computer Based Trainer[D]. California: Naval Postgraduate School Monterey, 1997.
[18] Intevac. Military products [EB/OL]. [2024-12-12]. https://www.intevac.com/intevacphotonics/military/.
[19] James Moniz, Claire McAdams. Intevac Photonics Announces Two New Development Awards in Support of IVAS [EB/OL]. [2021-06-23]. [2022-06-23]. https://www.businesswire.com/news/home/20210623005321/en/Intevac-Photonics-Announces-Two-New-Development-Awards-in-Support-of-IVAS.
[20] Ratches J A. Night vision modeling: historical perspective[C] //Infrared Imaging Systems: Design, Analysis, Modeling, and Testing X of SPIE, 1999, 3701: 2-12.
[21] Intevac Photonics. Digital Night Vision Goggles (DNVG) [EB/OL]. (n. d. ) [2024-12-11]. https://www.intevac.com/Intevacphotonics/military/dnvg/.
[22] Armentrout J J. An investigation of stereopsis with AN/AVS-6 night vision goggles at varying levels of illuminance and contrast[D]. Virginia: Virginia Tech, 1993.
[23] Sabatini R, Richardson M A, Cantiello M, et al. A novel approach to night vision imaging systems development, integration and verification in military aircraft[J]. Aerospace Science and Technology, 2013, 31(1): 10-23. DOI: 10.1016/j.ast.2013.08.021
[24] Castelli C J. Report sent to congress: DOD concludes night-vision industry must shed more excess capacity[J]. Inside the Army, 2012, 24(41): 12-14.
[25] Slocombe G. Night fighting equipment: Research and technology developments for the ADF[J]. Asia-Pacific Defence Reporter (2002), 2019, 45(10): 22-25. http://www.nstl.gov.cn/paper_detail.html?id=864041d0ed70d2ed39332cdb353dc1bc
[26] Slocombe G. Land 53 phase1br: Adf night fighting equipment replacement[J]. Asia-Pacific Defence Reporter (2002), 2017, 43(10): 22-24.
[27] REN B, JIAO G, LI Y, et al. Research progress of true color digital night vision technology[C]//Seventh Symposium on Novel Photo- electronic Detection Technology and Applications of SPIE, 2021, 11763: 1710-1720.
[28] Military and Law. MNV-K Night Vision Device [EB/OL]. (n. d. ) [2024-12-11]. https://www.militaryandlaw.com.au/shop/item/mnv-k-night-vision-device/.
[29] Military and Law. LLC Katod releases the latest version of lightweight MNV-SR Night Vision Device & Night Vision Goggle [EB/OL]. [2016-02-24]. [2024-12-11]. https://www.militaryandlaw.com.au/arti-cle/llc-katod-release-latest-version-of-lightweight-mnv-sr-night-vision-device-and-night-vision-goggle.
[30] Military and Law. MNV-S Night Vision Device Brochure (PDF) [R/OL]. (n. d. )[2024-12-11]. https://www.militaryandlaw.com.au/files/brochures/katod/mnv-s.pdf.
[31] Photonis Defense. TacFusion: The newest handheld binocular combining low-light camera core and thermal imaging sensor [EB/ OL]. [2021-11-30]. [2024-12-11]. https://www.photonisdefense.com/newsroom/Blog4/Photonis-Defense-releases-TacFusion-the-newest-handheld-binocular-combining-low-light-camera-core-and-thermal-imaging-sensor.