Ergonomic Analysis of Pilot's Night Vision Goggles in Operational Use and Performance Improvement
-
摘要: 飞行员夜视镜在未来夜间空战中将会发挥越来越重要的作用,但是佩戴夜视镜飞行也带来诸多安全问题和人机工效问题。为保证飞行员佩戴夜视镜的飞行安全,同时提高夜视作战效能,改善和提升飞行员夜视镜的人机工效是重要途径之一。本文分析了飞行员使用夜视镜时的存在的典型人机工效问题,从夜视镜设备性能改进、人员训练以及使用环境与时机3个方面给出了效能提升建议,为提高飞行员佩戴夜视镜飞行安全性、高效性和舒适性提供适用性的解决方案。Abstract: Pilots' night vision goggles will play an increasingly important role in future night air combats. However, wearing night vision goggles will also lead to many safety and ergonomic problems. To ensure the flight safety of pilots wearing night vision goggles and to improve night vision combat effectiveness, it is important to enhance the ergonomics of pilots' night vision goggles. This study analyzes the typical ergonomic problems of pilots when they use night vision goggles and provides suggestions for efficiency improvement from three viewpoints: performance enhancement of night vision goggles, personnel training, and use of environment and opportunity. We provide a feasible solution to improve the safety, efficiency, and comfort of pilots wearing night vision goggles.
-
Keywords:
- pilot’s night vision goggles /
- night vision compatibility /
- ergonomics
-
0. 引言
根据成像原理,红外图像是通过“测量”物体向外辐射的热量获得,描述的是目标与背景所保持温度的差异,具有较高的对比度和突出目标的优势;而可见光图像的优点在于主要呈现场景中的细节以及纹理信息,不容易受到温度等的影响[1-5]。由此,同一场景下的红外图像与可见光图像中的信息具有一定的互补性。在同一场景下,为了实现信息的互补,可通过红外与可见光图像融合技术来获取一幅具有更全面目标和场景信息的图像。目前在目标跟踪、智能监控、视频分析等领域红外与可见光图像融合有着广泛的应用[6-9]。
近年来,在图像融合领域中由于深度学习具有较强的特征提取能力而得到了深入研究。文献[10]提出了一种基于CNN的图像融合方法,通过训练使网络具有分类能力,通过二值化和两个一致性策略得到决策映射,并由该映射作为权重重构融合图像;文献[11]提出基于生成对抗网络FusionGAN的红外与可见光图像融合方法;文献[12]在现有基于GAN图像融合方法的基础上,提出了一种基于双路级联对抗机制的融合方法,在生成器模型中采用双路级联的方式进行特征提取,在判别器模型中采用双判别方式生成融合图像;文献[13]中提出通用的卷积神经网络图像融合模型,以端到端的方式进行训练,利用两个卷积层从多个输入图像中提取特征,并根据输入图像类型选择适当的融合规则进行融合得到融合图像;文献[14]建立权重独立的双通道残差卷积神经网络,对可见光与红外频段下的目标图像进行特征提取,生成多尺度复合频段特征图组的融合方法。目前学者们利用深度学习方法在红外与可见光图像融合上取得较好的融合效果,但是在融合过程中没有结合图像的尺度信息,往往影响融合图像的视觉效果,容易出现细节丢失、边缘模糊以及出现伪影等的问题。
多尺度变换方法通常将图像中的信息分为结构信息和细节信息,通过深度学习结合多尺度变换方法可以更好地提取源图像的结构信息,有效保留源图像的细节信息,从而进一步提升融合图像质量。引导滤波是一种重要的多尺度变换方法,具有保边平滑和复杂度较低等特性。本文提出了一种基于变换域VGGNet19网络的红外与可见光图像融合算法。首先,通过引导滤波进行分解,获取到包含源图像大尺度信息的基础层和包含细节信息的细节层;然后,采用拉普拉斯能量对基础层进行融合得到基础融合图,细节层通过VGGNet19网络进行多层特征提取,L1正则化、上采样以及最终的加权平均策略得到细节融合图;最后,通过相加得到最终结果。
1. 基本理论
1.1 引导滤波
引导滤波器(guided filter,GF)在图像融合领域是一种高效的图像边缘保持平滑滤波器[15],其被定义为一个局部线性模型,其滤波时间与滤波器尺寸是相互独立的。设J为引导图像,I为滤波输入图像、P为滤波输出图像、假设滤波器输出结果P与引导图像J为线性变换,则有:
$$ P_i=a_n J_i+b_n ; \quad \forall i \in \omega_n $$ (1) 式中:ωn是大小为(2r+1)×(2r+1)的矩形窗口;Ji表示i像素强度;线性系数an和bn为ωn内的常数;i和n为像素索引,若引导图像J存在边缘,为了使滤波输出图像P保持与J相似特性的边缘,可通过最小化该局部线性模型的方式,因为∇P=an∇J,故引导滤波器具有边缘保持特性,即滤波输出图像P是滤波输入图像I去除纹理或噪声后的图像,公式如下:
$$ P_i=I_i-n_i $$ (2) $$ E\left( {{a_n},{b_n}} \right) = \sum\limits_{i \in {\omega _n}} {\left[ {{{\left( {{a_n}{J_i} + {b_n} - {I_i}} \right)}^2} + \varepsilon {a_n}^2} \right]} $$ (3) 式中:I为待滤波图像,采用最小二乘法,求出an和bn:
$$ {a_n} = \frac{1}{{\left| \omega \right|}}\left[ {\sum {i \in {\omega _n}\left( {{J_i}{I_i}} \right)} - {\mu _n}{{\overline I }_n}} \right]/{\sigma _n}^2 + \varepsilon $$ (4) $$ {b_n} = {\overline I _n} - {a_n}{\mu _n} $$ (5) 正则化参数ε>0;μn为引导图像J在窗口ωn中的均值;σn2为I在ωn中的方差;|ω|为ωn中所包含像素的个数;$ {\overline I _n} $为在窗口ωn中待滤波图像的均值。由于一个像素可能同时出现在多个窗口,因此,可通过对多个窗口的线性函数值取平均的方式计算该点输出,公式如下:
$$ {P_i} = {\overline a _i}{J_i} + {\overline b _i} $$ (6) $$ {\overline a _i} = \sum\limits_{n \in {\omega _i}} {{a_n}/\left| \omega \right|} ,{\overline b _i} = \sum\limits_{n \in {\omega _i}} {{b_n}/\left| \omega \right|} $$ (7) 式中:ωi为以i为窗口中心像素的包含所有像素n的窗口。
1.2 VGGNet网络
VGGNet网络是一种结构加深了的卷积网络,其验证了增加网络的深度确实可以提高网络本身的性能,核心思想是通过利用较小的卷积核来增加网络深度,通过加深结构来提升性能[16]。VGGNet19网络模型中共有19个权值层,通常为16个卷积核大小为3×3的卷积层和3个全连接层。其主要目的是通过非线性深层网络来提升网络的学习性能,以达到更好的应用效果。在图像处理中,对于输入图像的局部大小,通过小卷积核进行特征提取较大卷积核具有更优的性能,而VGGNet19网络具有卷积核小以及网络深度深的特性。因此,将VGGNet19网络应用于图像融合领域能够提取更精确的特征信息,以达到更好的融合效果。VGGNet19网络架构如图 1所示。
2. 本文算法
2.1 本文方法结构
本文方法主要分为3部分:1)源图像多尺度分解:源图像分解通过引导滤波完成,得到一层基础信息和多层细节信息;2)基础层与细节层融合策略:基础层通过拉普拉斯能量进行融合得到新的基础部分,细节层输入到VGGNet19网络,进行特征提取操作、L1正则化、上采样以及最终的加权平均策略得到新的细节部分;3)多尺度图像重构:将得到融合图像的基础图像和细节图像通过相加,即可获得最终的融合结果。图 2为本文算法思路框图。
2.2 引导滤波分解
为了使最终的融合图像包含更多红外图像的细节信息与可见光图像丰富的边缘信息,本文采用引导滤波对源图像进行多尺度的边缘保持分解(multi-scale guided filter decomposition, MGFD)。首先假设输入的源图像为I,对其进行N级分解,会得到一幅基础图像bN-1和N-1幅细节图像di(i=1, 2, …, N-1)。具体计算公式如下:
$$ {b^i} = \text{guidefilter}\left( {{b^{i - 1}},{b^{i - 1}},r,\varepsilon } \right) $$ (8) $$ {d^i} = {b^{i - 1}} - {b^i} $$ (9) 式中:b0=I,r和ε为引导滤波的两个自由参数,可通过相加完成重构,即:
$$ I = {b^{N - 1}} + \sum\limits_{i = 1}^{N - 1} {{d^i}} $$ (10) 2.3 融合策略
在图像融合领域,融合策略的选择将直接决定最终融合图像效果,拉普拉斯算子是基于像素的算子,具有提高图像对比度与清晰度的优势,因此本文选用拉普拉斯算子进行基础层的融合;VGGNet19网络是一种卷积核较小的深层网络模型,具有较高的网络性能,在细节层中能够提取到更多细节纹理信息,由此选用该网络来进行细节层的特征提取。
1)基础层融合策略
由于将源图像经过引导滤波多尺度边缘保持分解后,其基础信息主要表示融合图像的轮廓信息,因此为了有效地保留源图像的主要能量信息,本文采用性能优异的拉普拉斯算子(Laplacian operator)进行基础图像的融合,能够有效克服图像中清晰度与对比度下降问题,提高图像的局部清晰度,为最终的融合提供具有更高清晰度的基础层融合图像。过程如下:
$$ {F_b}\left( {x,y} \right) = \sum\limits_{\left( {x,y} \right) \in \omega } {{{\left( {{f_{xx}} + {f_{yy}}} \right)}^2}} $$ (11) $$ \begin{gathered} {f_{xx}} + {f_{yy}} = - f\left( {x - 1,y - 1} \right) - 4f\left( {x - 1,y} \right) - f\left( {x - 1,y + 1} \right) \hfill \\ - 4f\left( {x,y - 1} \right) + 20f\left( {x,y} \right) - 4f\left( {x,y + 1} \right) - f\left( {x + 1,y - 1} \right) \hfill \\ - 4f\left( {x + 1,y} \right) - f\left( {x + 1,y + 1} \right) \hfill \\ \end{gathered} $$ (12) 式中:f(x, y)为(x, y)处的基础层系数,(x, y)为ω的中心位置,大小为l×l的窗口,l取3。本文算法用到的窗口矩阵为[-1, -4, -1; -4, 20, -4; -1, -4, -1]。
2)细节层融合策略
细节层主要包含源图像的细节及纹理信息,对细节层的处理直接影响融合图像是否清晰以及边缘失真是否严重。对于细节部分,先使用VGGNet19提取特征得到特征层;然后由特征层通过加权平均策略得到最终权重层;最后将最终权重层作为权重系数得到细节层融合图像Fd。设细节信息为Id J、ϕJi, m表示第i层中第J个细节信息提取的特征映射,m是第i层的通道数,故:
$$\phi_{t^i, m}=\mathit{\Phi} _i\left(I_J^{\mathrm{d}}\right), \quad m \in\{1,2, \cdots, M\}, \quad M=64 \times 2^{i^{-1}}$$ (13) 式中:Φi(⋅)为特征提取层,i={1, 2, 3, 4, 5}分别表示relu_1_1,relu_2_1,relu_3_1,relu_4_1,relu_5_1,在得到特征映射后,通过L1正则化来获取该特征映射的活跃度水平映射,公式如下:
$$ C_J^i\left( {x,y} \right) = {\left\| {\phi _J^{i,1:M}\left( {x,y} \right)} \right\|_1} $$ (14) 式中:ϕJi, 1:M为M维向量,表示特征映射中(x, y)处ϕJi, m层的内容。在得到活跃度水平映射后,通过softmax层获取初始权重映射ωi J:
$$ \omega _J^i\left( {x,y} \right) = \frac{{C_J^i\left( {x,y} \right)}}{{\sum\limits_{n = 1}^J {C_J^i\left( {x,y} \right)} }} $$ (15) 式中:ωJi(x, y)为在[0, 1]范围内的初始权重映射值;J为活跃度水平数量取2。在VGGNet网络中最大池化层相当于子采样过程,本文算法中,步长设为2,因此在不同层特征映射图的大小为细节内容大小的1/(2i-1),i∈{1, 2, 3, 4, 5},在得到初始权重映射ωJi后,进行上采样操作,将权重映射大小恢复至输入图像大小得到最终权重映射(大小与输入图像大小一致),公式如下:
$$ \mathop {\omega _J^i}\limits^ \wedge \left( {x + p,y + q} \right) = \omega _J^i\left( {x,y} \right) $$ (16) $$ p,q \in \left\{ {0,1, \cdots ,\left( {{2^{i - 1}} - 1} \right)} \right\} $$ (17) 即为上采样的过程,权重映射图的数目为2J对,i∈{1, 2, 3, 4, 5},初始融合细节:
$$ F_\text{d}^i\left( {x,y} \right) = \sum\limits_{n = 1}^J {\mathop {\omega _J^i}\limits^ \wedge \left( {x,y} \right) \times I_n^\text{d}} \left( {x,y} \right),J = 2 $$ (18) 细节信息融合结果:
$$ {F_\text{d}}\left( {x,y} \right) = \sum\limits_{i = 1}^5 {\left[ {\frac{{F_\text{d}^i\left( {x,y} \right)}}{2}} \right]} $$ (19) 3)图像重构过程
$$ F(x, y)=F_{\mathrm{b}}(x, y)+F_{\mathrm{d}}(x, y) $$ (20) 3. 实验结果及分析
3.1 实验说明
本文红外与可见光源图像选取公共数据集TNO中的21组图像进行实验,实验仿真平台采用Intel酷睿i7-1065G7 CPU,编程环境为Matlab 2019b。为验证算法性能,本文选定6组已配准图像进行实验分析,其大小分别为360×270 pixel、632×496 pixel、505×510 pixel、640×480 pixel、360×270 pixel、595×328 pixel。为验证本文算法的可行性与有效性,将本文方法的融合结果与文献[13]全卷积融合算法(image fusion framework based on convolutional neural network, IFCNN)、文献[17]卷积稀疏表示模型(convolutional sparse representation, CSR)、文献[18]基于显著检测的联合稀疏表示模型(JSR model with saliency detection fusion method, JSRSD)、文献[19]加权最小二乘优化方法(weighted least square, WLS)、文献[20]梯度滤波算法(gradient structural filter, GSF)、文献[21]基于空间频率激励脉冲耦合神经网络的非下采样Contourlet变换域图像融合算法(nonsubsampled contourlet transform,NSCT)、文献[22]拉普拉斯结合卷积神经网络(Laplace-cnn, Lp-cnn)7种方法进行了对比。引导滤波多尺度算法的参数设置为:分解层数N=4: r1=25, r2=14, ε1=0.1, ε2=10-2。
3.2 主观评价
通过6组实验的融合结果如图 3所示,Img1中CSR人物旁边有晕染,JSRSD、GSF和Lp-cnn缺少细节信息(呈现白块),IFCNN、WLS和NSCT包含少量的纹理信息,但不如本文所包含信息丰富;Img2中CSR和NSCT有噪声以及晕染块的出现,路灯处JSRSD和Lp-cnn轮廓不分明,缺少可见光图像中的边缘信息,WLS、DTCWT和GSF虽然存在一些细节纹理信息,但相比本文方法,对比方法人物衣服线条不如本文分明;Img3中整体来看,CSR、JSRSD均出现噪声块,天空有较多晕染,NSCT天空处出现伪影,本文方法相比WLS和GSF在船顶端处有更加丰富的纹理信息,本文较IFCNN、Lp-cnn云层处的轮廓更加分明;Img4中天空及房屋墙面上CSR、WLS均有噪声出现,NSCT在边缘处有晕染,本文在没有噪声晕影出现的情况下相比GSF、Lp-cnn可以明显看出人物及房屋边界更加清晰;Img5中整体来看CBF、CSR和Lp-cnn存在树木边缘信息丢失的情况,JSRSD和NSCT人物边缘出现晕染,IFCNN、GSF和WLS通过放大图来看,人物轮廓不如本文分明;Img6中从树木边缘来看,CBF、CSR、WLS、JSRSD、GSF、Lp-cnn、NSCT均出现边缘晕染,从放大图看本文相对较少,并且包含更多飞机头部位的纹理信息。该6组实验中有5组实验CBF和CSR其实验结果具有较多噪声和晕染,显著性特征不够清晰。IFCNN、JSRSD、NSCT方法除显著特征外其他区域细节模糊,对比度不高,其次更多地保留红外图像的特征,亮度偏高。GSF、Lp-cnn和WLS融合后图像,区域过渡不够自然,缺少小区域部分的细节纹理信息。通过以上7种方法的对比,本文所提方法其融合结果晕影和块效应不明显,边缘轮廓分明,包含更多的细节信息,具有更高的对比度。
三维分析对比图可以较好地表示融合结果图中细节与纹理信息的分布情况。如图 4所示,以Img1为源图像,可以看出同一场景下红外图像和可见光图像在三维分析中所表现出来的特征信息,红外图像可根据温度的高低区分图像,可见光图像则根据光照的亮度来区分场景信息。本文算法结果图与对比方法结果图的三维分析结果。相比本文算法IFCNN方法、CSR方法以及NSCT方法从图像看均有少量噪声伪影出现,在三维分布中可以看出轮廓信息有过拟合现象;JSRSD方法与WLS方法虽分布较为均匀,但细节边缘线条不及本文算法清晰;GSF方法以及Lp-cnn方法蓝色分布缺少,即轮廓不够明显,因此,从三维分析图可以看出,本文算法具有细节纹理清晰的优势。
3.3 客观评价
为验证算法性能及图像融合质量,本文对融合结果的定量分析主要采用5种在图像融合方面广泛使用的评价指标,依次为图像像素特征互信息(FMI-pixel)、离散余弦特征互信息(FMI-dct)、小波特征互信息(FMI-w)、相位一致性的度量(phase congruency-based Metric,QP)以及图像结构相似程度的度量(structural similarity-based metric,QY)。其中FMI-pixel、FMI-dct、FMI-w分别从不同角度计算融合图像与源图像的特征互信息(feature mutual information,FMI)[23],值越大,则说明融合图像与源图具有较高的信息相关性,即在融合过程中损失的细节信息越少;QP用于测量从源图传输到融合图像其边缘与角点信息;QY测量融合图像与源图间的自适应结构信息,反映其相似程度,其值越大表示融合效果更优。
通过6组实验图像的客观评价指标如图 5所示。实验指标值可以看出本文方法的FMI-dct指标均优于其余7种对比方法,而指标FMI-pixel、FMI-w、QY的值在6组图像中有5组处于最优,QP指标值有大多数处于最优。表明本文方法所获得的融合结果与源图像具有的离散余弦特征的特征互信息最多,即与源图像具有较高的相关性,同时具有较多的图像像素信息、小波特征信息以及自适应结构信息,能够从源图像中提取到更多的细节边缘信息,融合结果包含更丰富的纹理结构。综上,本文所提算法融合效果更优。
综合主客观评价指标,本文所提算法大多数指标均优于对比融合方法,较好地保留了可见光图像中的边缘及纹理信息,同时突出了红外图像的目标,具有更优的清晰度与对比度。从折线图可以清晰地看出本文方法所存在指标方面的优越性。从FMI-pixel、FMI-dct、FMI-w、QY的指标对比折线图来看,本文方法的融合效果最优;从QP指标对比折线图来看,6组图中本文方法有大多数优于其余对比方法。
4. 结论
本文通过在变换域中引用结构较深的卷积神经网络VGGNet19来进行红外图像与可见光图像融合,改善了融合结果图轮廓不分明以及细节信息丢失的问题,在实验过程中通过多尺度引导滤波分解源图像,可以更好地提取源图像中的细节纹理以及轮廓信息,其次结合基于像素的拉普拉斯能量算法进行基础部分的融合,通过VGGNet19网络对细节信息进行特征提取并得到一系列权重图,保留了更多细节信息,避免了细节信息地丢失。最终得到轮廓分明,细节清晰的融合图。实验结果表明,本文方法所得到的融合图不仅具在视觉效果方面更加接近真实,而且客观评价指标方面也具有更优的效果。由于VGGNet19网络特征提取过程运行时间较长,今后将尝试对其进行优化,进一步提高算法效率。
-
表 1 月相和照度对照
Table 1 Moon phase and illumination comparison table
Phase of the moon Illuminance Full moon 2×10-1 lx ¾ moon 1×10-1 lx ½ moon 5×10-2 lx-1−1×10-1 lx ¼ moon 1×10-2 lx No moon(starlight) 1×10-3 lx -
[1] Radio Technical Commission for Aeronautics. Minimum Operational Performance Standards for Integrated Night Vision Imaging System Equipment: RTCA/DO-275[S]. [2001-12-12].
[2] 王聪, 于飞, 杨明浩, 等. 一种微光夜视成像系统设计[J]. 空军医学杂志, 2021, 37(1): 5-8. DOI: 10.3969/j.issn.2095-3402.2021.01.002 WANG Cong, YU Fei, YANG Minghao, et al Design of a low light level night vision imaging system[J]. Journal of Air Force Medicine, 2021, 37(1): 5-8. DOI: 10.3969/j.issn.2095-3402.2021.01.002
[3] 国防科学技术委员会. 飞行员夜视成像系统通用规范: GJB 2025-1994[S]. 4-04-12]. China National Military Standards. General Specification for Night Vision Imaging System for Pilots: GJB 2025-1994[S]. [1994-04-12].
[4] US-AIR FORCE. Department of Defense Interface Standard, Lighting, Aircraft, Night Vision Imaging System(NVIS) Compatible: MIL-STD-3009 [S]. 2002.
[5] 王聪, 师国伟, 赵显亮, 等. 飞行错觉模拟器飞行仿真系统设计[J]. 航天医学与医学工程, 2019, 32(2): 128-133. https://www.cnki.com.cn/Article/CJFDTOTAL-HYXB201902006.htm WANG Cong, SHI Guowei, ZHAO Xianliang, et al. Design of flight illusion simulator flight simulation system[J]. Aerospace Medicine and Medical Engineering, 2019, 32(2): 128-133. https://www.cnki.com.cn/Article/CJFDTOTAL-HYXB201902006.htm
[6] Willen B. Spatial Disorientation Training-Demonstration and Avoidance: RTO-TR-HFM-118[R]. Netherlands: The Research and Technology Organization(RTO)of NATO, 2008: 62-63.
[7] 国防科学技术委员会. 与夜视成象系统兼容的飞机内容照明: GJB 9314-2018[S]. 2-07-18]. National Defense Science and Technology Commission GJB 9314-2018 Aircraft content lighting compatible with night vision imaging system[S]. [1992-07-18].
[8] 国防科学技术委员会. 飞机内部和外部照明设备通用规范: GJB 2020A-2012[S]. 4-09-12]. National Defense Science and Technology Commission. GJB 2020A-2012 General specification for aircraft interior and exterior lighting equipment: [S]. [1994-09-12].
[9] 吴铨, 周睛霖, 秦志峰, 等. 外军飞行人员夜视训练发展[J]. 中华航空航天医学杂志, 2013, 24(4): 299-306. DOI: 10.3760/cma.j.issn.1007-6239.2013.04.016 WU Quan, ZHOU Jinglin, QIN Zhifeng, et al. Development of night vision training for foreign military pilots[J]. Chinese Journal of Aerospace Medicine, 2013, 24(4): 299-306. DOI: 10.3760/cma.j.issn.1007-6239.2013.04.016
[10] 于飞, 贾宏博, 姚钦, 等. 美国空军夜视医学训练与保障概况[J]. 中华航空航天医学杂志, 2019, 30(2) : 146-151. YU Fei, JIA Hongbo, YAO Qin, et al. Overview of night vision medical training and support of USAF[J]. Chinese Journal of Aerospace Medicine, 2019, 30(2): 146-151.
[11] 马月欣, 王志翔. 夜视训练系统[J]. 航空军医, 2002, 30(1): 1-1. https://www.cnki.com.cn/Article/CJFDTOTAL-HKJY200201024.htm MA Yuexin, WANG Zhixiang Night vision training system[J]. Aviation Medical Officer, 2002, 30(1): 1-1. https://www.cnki.com.cn/Article/CJFDTOTAL-HKJY200201024.htm
[12] Theleman S, Hegarty J, Vollmerhausen R, et al. New weather depiction technology for night vision goggle (NVG) training[C]//Proceedings of SPIE, 2006, 6303: 63030F-1-63030F-11.
[13] 谢溯江, 徐珀, 贾宏博, 等. 飞行员地面错觉模拟及其反应参考值[J]. 中华航空航天医学杂志, 2011, 22(2): 81-85. DOI: 10.3760/cma.j.issn.1007-6239.2011.02.001 XIE Suojiang, XU Po, JIA Hongbo, et al. Pilot ground illusion simulation and its response reference value[J]. Chinese Journal of Aerospace Medicine, 2011, 22(2): 81-85. DOI: 10.3760/cma.j.issn.1007-6239.2011.02.001
[14] 程洪书, 赵保明, 张福, 等. 飞行错觉模拟训练系统的研究与开发[J]. 火力与指挥控制, 2012, 37(9): 201-204. DOI: 10.3969/j.issn.1002-0640.2012.09.054 CHENG Hongshu, ZHAO Baoming, ZHANG Fu, et al. Research and development of flight illusion simulation training system[J]. Firepower and Command and Control, 2012, 37(9): 201-204. DOI: 10.3969/j.issn.1002-0640.2012.09.054
[15] Radio Technical Commission for Aeronautics. Concept of Operations, Night Vision Imaging System for Civil Operators: RTCA/DO-268[S]. [2001-03-27].
[16] AB Forces News Collection. Alamy Stock Photo[Z/OL]. [2018-01-24] https://s.r.sn.cn/VRkXft
[17] 许为. 航空夜视镜的人机工效学问题[J]. 国际航空, 1991, 42(12): 52-53. https://www.cnki.com.cn/Article/CJFDTOTAL-ZHHK200504027.htm XU Wei. Ergonomic issues of aviation night vision goggles[J]. International Aviation, 1991, 42(12): 52-53. https://www.cnki.com.cn/Article/CJFDTOTAL-ZHHK200504027.htm
[18] 徐先荣, 张扬, 赵霆, 等. 飞行员严重飞行错觉的临床研究[J]. 临床耳鼻咽喉科杂志, 2006, 20(16): 746-749. DOI: 10.3969/j.issn.1001-1781.2006.16.010 XU Xianrong, ZHANG Yang, ZHAO Ting, et al. Clinical study on pilots' severe flight illusion[J]. Journal of Clinical Otolaryngology, 2006, 20(16): 746-749. DOI: 10.3969/j.issn.1001-1781.2006.16.010
[19] 武强, 张瑞金, 佟于. 海上飞行的环境特点与飞行错觉[J]. 海洋世界, 1994(8): 27-28. https://www.cnki.com.cn/Article/CJFDTOTAL-HYSJ199408020.htm WU Qiang, ZHANG Ruijin, TONG Yu. Environmental characteristics and flight illusion of maritime flight[J]. Ocean World, 1994(8): 27-28. https://www.cnki.com.cn/Article/CJFDTOTAL-HYSJ199408020.htm
[20] Pousette Magnus Wallquist, Lo Mairtre Riccardo, Linder Jan, et al. Neck muscle strain in air force pilots wearing night vision goggles[J]. Aerospace Medicine and Human Performance, 2016, 87(11): 928-932.
[21] 吴铨, 柳松杨, 张霞, 等. 佩戴夜视镜飞行对飞行员颈部的影响及应对措施[J]. 中华航空航天医学杂志, 2018, 29(Z1): 161-166. WU Quan, LIU Songyang, ZHANG Xia, et al. Impact of flying with night vision goggles on pilots' neck and countermeasures[J]. Chinese Journal of Aerospace Medicine, 2018, 29(Z1): 161-166.
[22] 王聪, 郭大龙, 赵显亮, 等. 基于空间定向感知模型的飞行错觉模拟效果评价[J]. 航天医学与医学工程, 2020, 33(6): 471-476. https://www.cnki.com.cn/Article/CJFDTOTAL-HYXB202006002.htm WANG Cong, GUO Dalong, ZHAO Xianliang, et al. Evaluation of flight illusion simulation effect based on spatial orientation perception model[J]. Aerospace Medicine and Medical Engineering, 2020, 33(6): 471-476. https://www.cnki.com.cn/Article/CJFDTOTAL-HYXB202006002.htm
[23] 熊端琴, 郭小朝. 航空夜视镜工效学问题及技术策略概述[C]//人-机-环境系统工程研究进展, 2005(7): 237-241. XIONG Duanqin, GGUO Xiaochao Ergonomic problems and technical strategies of aviation night vision goggles [C]//Research progress in Man Machine Environment System Engineering, 2005(7): 237-241.
[24] 董贵安. 美国军事飞行员模拟夜视镜失灵后的暗适应[J]. 航空军医, 1997(2): 121. https://www.cnki.com.cn/Article/CJFDTOTAL-HKJY199702051.htm DONG Gui'an. The dark adaptation of American military pilots after the failure of night vision goggles[J]. Aviation Military Doctor, 1997(2): 121. https://www.cnki.com.cn/Article/CJFDTOTAL-HKJY199702051.htm
[25] 林燕丹, 艾剑良, 杨彪, 等. 民机驾驶舱在恶劣光环境下的飞行员视觉工效研究[J]. 科技资讯, 2016, 14(13): 175-176. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXLJ201613102.htm LIN Yandan, AI Jianliang, YANG Biao, et al. Research on visual ergonomics of pilots in civil aircraft cockpit under harsh light environment[J]. Science and Technology Information, 2016, 14(13): 175-176. https://www.cnki.com.cn/Article/CJFDTOTAL-ZXLJ201613102.htm
[26] 拜晓锋, 杨书宁, 候志鹏, 等. 微光像增强器夜视兼容特性分析[J]. 红外与激光工程, 2016, 45(S2): 106-110. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ2016S2018.htm BAI Xiaofeng, YANG Shuning, HOU Zhipeng, et al Analysis of night vision compatibility characteristics of low light level image intensifier[J]. Infrared and Laser Engineering, 2016, 45(S2): 106-110. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ2016S2018.htm
[27] Zoltan Szoboszlay, Loran Haworth. A comparison of the AVS-9 and the panoramic night vision goggles during rotorcraft hover and landing[C]//The American Helicopter Society 57th Annual Forum, 2001, 1458-1467.
[28] 徐乐乐, 邢军, 马冬梅, 等. 飞行员注意力分配测试研究[J]. 华南国防医学杂志, 2013, 27(11): 822-823. https://www.cnki.com.cn/Article/CJFDTOTAL-HNGY201311017.htm XU Lele, XING Jun, MA Dongmei, et al. Study on pilot attention distribution test[J]. South China Journal of National Defense Medicine, 2013, 27(11): 822-823. https://www.cnki.com.cn/Article/CJFDTOTAL-HNGY201311017.htm
[29] 罗晓利. 驾驶舱注意力分散及其管理[J]. 民航经济与技术, 1998(7): 42-44. https://www.cnki.com.cn/Article/CJFDTOTAL-MHJJ199807014.htm LUO Xiaoli. Cockpit distraction and its management[J]. Civil Aviation Economy and Technology, 1998(7): 42-44. https://www.cnki.com.cn/Article/CJFDTOTAL-MHJJ199807014.htm
[30] Radio Technical Commission for Aeronautics. Civil Operators’ Training Guidelines for Integrated Night Vision Imaging System Equipment: RTCA/DO-295[S]. [2004-10-19].
[31] 袁卫红. 某型直升机照明系统与夜视镜兼容设计[J]. 直升机技术, 2008(4): 42-47. https://www.cnki.com.cn/Article/CJFDTOTAL-ZSEN200804014.htm YUAN Weihong. Design of a helicopter lighting system compatible with night vision goggles [J]. Helicopter, 2008(4): 42-47. https://www.cnki.com.cn/Article/CJFDTOTAL-ZSEN200804014.htm
[32] 李晓峰, 李娇娇, 李金沙, 等. 超二代及三代像增强器不同响应波段的参数测量及比较[J]. 光子学报, 2021, 50(2): 123-129. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB202102013.htm LI Xiaofeng, LI Jiaojiao, LI Jinsha. Measure and comparison between the second-generation and the third-generation image intensifier within the different region of wavelength[J]. Acta Photonica Sinica, 2021, 50(2): 123-129. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB202102013.htm
[33] Stocktrek Images, Inc. Alamy Stock Photo[Z/OL]. https://www.alamy.com/stock-photo-soldier-wearing-the-an-avs-10-panoramic-night-vision-goggles-105723429.html.
[34] Ruffner J W, Antonio J D, Joralmon D Q, et al. Computer-based and web-based applications for night vision goggle training[C]//Conference on Helmet- and Head-Mounted Displays VI, 2001: 148-158.