Research on Optical Axis Parallelism Adjustment Technology for Multi band Image Fusion System
-
摘要: 本文基于一种多波段图像融合系统,对系统光轴平行性装调技术进行研究。系统为五光轴平行系统,包括白光模块、微光模块、短波红外模块、长波红外模块、激光测距模块,通过计算得到精度最高的为微光模块,精度为32.09″,即平行性偏差小于32.09″不影响系统使用。装调时采用光轴中心与平行光管十字靶板中心对准的方法,得到的图像为最大图像尺寸的99.89%,对图像信息获取不产生影响。最后用搭建好的平台对系统进行实验验证,实验证明平行性最大偏差为9″,小于系统最大允许误差,所以得出结论该装调方法对类似产品的装调具有一定参考价值。Abstract: This article is based on a multiband image fusion system and studies the alignment technology of the parallelism of the optical axis of the system. The five-axis parallel system includes a white light module, low light level module, short wave infrared module, long wave infrared module, and laser ranging module. The lowest light level module with the highest accuracy was 32.09. A parallelism deviation of less than 32.09 does not impact the system's usability. During installation and adjustment, the optical axis was aligned with the center of the collimator cross-target plate. This alignment produced an image size that is 99.89% of the maximum possible, which does not hinder the acquisition of image information. Finally, the system is verified experimentally using the developed platform. Experiments proved that the maximum deviation of the parallelism was nine, which is less than the maximum allowable error of the system. Therefore, this assembly and adjustment method had a certain reference value for the assembly and adjustment of similar products.
-
Keywords:
- image fusion /
- parallelism of optical axis /
- parallelism deviation /
- center alignment
-
0. 引言
人体摔倒检测可以有效地检测视频中的摔倒行为,降低人在摔倒后无法及时呼救的风险[1-3]。现有的基于计算机视觉的人体摔倒检测方法大多使用可见光图像,这类方法受光照影响在昏暗环境下效果不佳。红外图像能够保护个人隐私,而且不受光照和恶劣天气的影响,适用于全天候的人体摔倒检测,本文将对红外图像摔倒检测算法进行研究。现有的人体摔倒检测方法大致可分为以下3类:1)基于Freeman链码的检测方法,文献[4]利用Freeman链码记录轮廓信息,计算实际Freeman链码与摔倒模板链码的欧式空间距离结合时间判定条件判断是否发生摔倒行为,但在大规模遮挡时容易出现误差;2)基于关键点的摔倒检测方法,文献[5]利用建立的红外图像摔倒数据集进行CenterNet网络训练,识别红外图像中的人体姿态,但没有突出摔倒动作的时序性,容易对缓慢坐地等类摔倒动作造成误检;3)基于宽高比和质心变化率的检测方法,文献[6]利用人体宽高比这一特征来判断是否有人摔倒,并使用质心变化率和有效面积比对容易造成误判的情况进行修正,从几何特征的角度判断人体是否摔倒,但对特定角度的摔倒检测效果不佳。
针对上述算法的不足,本文在现有的摔倒检测方法的基础上提出了一种基于改进Alphapose的红外图像摔倒检测算法,该算法使用改进后的Alphapose检测红外图像中的骨架关键点和人体姿态,利用得到的人体骨架关键点信息和姿态类别进行摔倒判定,兼顾了摔倒动作的时序性和前后动作的关联性。
1. 改进的Alphapose算法
1.1 YOLO v5s
人体检测的精度直接影响后续关键点检测的效果,是整个算法精度的保证。YOLO系列算法[7-9]将候选框的搜索和目标的识别定位合二为一,相对于RCNN[10-12]系列算法先搜索再识别的两阶段处理模式,YOLO算法的处理速度更快,适用于端到端的训练与预测,目前已发展至YOLO v5版本。YOLO v5的目标检测网络有4种版本,主要区别在于网络深度不同,如表 1所示。
表 1 YOLO v5各版本参数对比Table 1. Comparison of parameters between different versions of YOLO v5Model Size
/pixelsSpeedV100/ms Params(M) YOLO v5s 640 2.0 7.3 YOLO v5m 640 2.7 21.4 YOLO v5l 640 3.8 47.0 YOLO v5x 640 6.1 87.7 从表 1可以看到,YOLO v5s的模型更小、速度更快,方便部署在嵌入式设备上,本文算法使用YOLO v5s的网络结构。
YOLO v5s网络首先使用Focus模块对输入图像进行切片操作,如图 1所示。如果网络输入的图片大小为640×640×3,则将图像隔行隔列取值,生成320×320×12的子图,再通过32个卷积核卷积生成320×320×32的特征图。相对于普通下采样,Focus模块保留了原始图片的完整信息。
YOLO v5s的Backbone部分使用了CSP[13]模块,将输入的特征映射划分为两部分,其中一部分经过多个残差组件和卷积,然后与另一部分拼接,在减少计算量的同时可以保证准确率。
Neck部分采用了PANet[14]结构,主要用于生成特征金字塔。特征金字塔会增强模型对于不同缩放尺度对象的检测,从而能够识别不同大小和尺度的同一个物体。
1.2 Alphapose算法
Alphapose[15]算法是一种人体姿态估计算法,能够检测出图像中的人体骨架,其提出一种区域多人姿态估计框架(regional multi-person pose estimation,RMPE),主要由对称空间变换网络(symmetric spatial transformer network,SSTN)、参数化姿态非极大抑制(parametric pose no-maximum-suppression,PP-NMS)、姿态引导建议发生器(pose-guided proposals generator,PGPG)和并行单人姿态估计器(parallel single person pose estimation,Parallel SPPE)组成,其中PGPG用于生成大量训练样本,Parallel SPPE则充当额外的正则项,以避免局部最小值,而SSTN又由空间变换网络(STN)、单人姿态估计器(SPPE)和空间反变换网络(spatial de-transformer network,SDTN)组成。Alphapose首先使用目标检测算法检测单张图片,得到单人人体目标框,作为RMPE的输入,进入SSTN模块。检测到的人体目标框可能目标偏离中心或者目标框中人体占比过小,影响后续姿态估计的效果,所以需要先使用STN提取出高质量的单人区域,然后输入SPPE得到估计的姿态,再由SDTN将估计的姿态反变换到原始人体区域框中。冗余的人体区域框输入姿态估计网络,可能会检测到冗余的姿态。Alphapose提出PP-NMS用来消除多余的姿态。其定义了一种姿态距离来度量姿态间的相似度,并在此基础上建立了冗余姿态的消除标准。PP-NMS首先选取最大置信度的姿态作为参考,并且根据消除标准将靠近该参考的区域框进行消除,多次重复这个过程直到消除所有的冗余识别框。
1.3 改进的Alphapose算法
原Alphapose算法主要使用的人体检测器是YOLO v3,与之相比,YOLO v5s的模型更小,速度更快。本文算法使用YOLO v5s作为Alphapose的人体检测器,改进后的Alphapose算法结构如图 2所示。
改进后的算法使用YOLO v5s网络完成对人体姿态的直接分类,同时从输入的红外图像中提取人体区域框,输入人体姿态估计网络检测人体骨架关键点,将关键点信息与预测的姿态类别一并输出。
2. 基于改进Alphapose的红外图像摔倒检测方法
本文提出基于改进Alphapose的红外图像摔倒检测算法。该算法首先使用YOLO v5s网络对图像中的人体姿态进行分类,再提取人体目标框检测出单人的骨架关键点,最后利用关键点和姿态类别信息,通过关键点分析和摔倒判定,判断是否出现摔倒。
2.1 关键点分析
Alphapose算法检测出的人体骨架关键点如图 3所示。
图 3(a)是站立时的人体骨架,图 3(b)是摔倒后的人体骨架。图中编号为0~17的点代表检测得到的18个人体骨架关键点,其中点11和点12所在位置代表髋关节。
通过实验发现,站立或行走的人体目标在发生摔倒时,最直观的表现是髋关节位置在垂直方向上的迅速下跌,所以通过监测髋关节在序列帧中的移动速度可以及时发现产生的摔倒动作。但随着运动中的人体目标与摄像头的距离越来越远,其髋关节在图像上的位移速度也越来越小,容易造成漏检。针对该问题,本文提出以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度。
在对红外视频的检测中,设第i帧与第i-1帧均为单人红外图像,2≤i≤N,N表示红外视频的总帧数,且都是非遮挡状态,其髋关节关键点均被检出。设图像左上角为原点,水平向右为X轴正方向,垂直向下为Y轴正方向,建立直角坐标系。记第i帧人体骨架中编号为n的关键点的纵坐标为yin,取点11和点12的中心点M代表髋关节,则点M在第i帧中的纵坐标yiM如式(1)所示。
$$ y_i^M = (y_i^{11} + y_i^{12})/2 $$ (1) 在摔倒过程中,当前一帧人体目标框的高度明显小于其宽度时,即使下降速度不变,也会因为前一帧目标框高度减小,导致计算得到的速度偏大,所以本算法引入前一帧人体目标框的宽高比作为限制条件,防止前一帧目标框宽高比过大导致点M的微小起伏被误识别为摔倒。记第i帧中人体目标框的高度为Hi,宽度为Wi,则第i帧中的人体宽高比Pi如公式(2)所示:
$$ {P_i} = {{{W_i}} \mathord{\left/ {\vphantom {{{W_i}} {{H_i}}}} \right. } {{H_i}}} $$ (2) 记第i帧中点M在垂直方向上的相对移动速度为vi,如公式(3)所示:
$$ {v_i} = \frac{{y_i^M - y_{i - 1}^M}}{{{H_{i - 1}}}},\quad 2 \leqslant i \leqslant N $$ (3) 设置大于0的阈值Th,检测可能出现的摔倒行为,如公式(4)所示。
$$ {F_i} = \left\{ {\begin{array}{*{20}{l}} {1,\;\;{v_i} > \text {Th and }{P_{i - 1}} < 1.0,\quad 2 \leqslant i \leqslant N} \\ {0,\;\;else} \end{array}} \right.\; $$ (4) 当Fi等于1时,判断可能发生了摔倒。
2.2 摔倒判定
仅仅分析关键点的下落速度有可能将快速下蹲、俯身拾取等类摔倒动作误识别为摔倒,为了减少误判,需要结合关键点分析结果和姿态分类做进一步判定。
经实验发现,摔倒后人体姿态会在短时间内稳定,直观表现是坐在地上、躺下或手部撑地,所以本文算法在经过关键点分析判断有可能发生摔倒后,继续检测后续多帧内的人体姿态。
在统计后续的人体姿态中,若第i帧图像中人体姿态类别为li,则对应的人体图像得分为si,两者关系可用公式(5)表示:
$$s_i=\left\{\begin{array}{l} 1, l_i \in[\text { "sit_flat","lie","push_up"] } \\ 0, \text { else } \end{array}\right.$$ (5) 式(5)中:当图像中的人体姿态类别li为“sit_flat”(坐地)、“lie”(躺下)、“push_up”(撑地)这3种姿态中的任意一种时,该人体图像的得分记为1,否则得分记为0。
当Fi=1,即第i帧检测到可能发生摔倒时,继续检测后续20帧图像的人体姿态,若累计图像得分大于10,最终判定为摔倒,记为FFi=1,如公式(6)所示:
$$ F{F_i} = \left\{ {\begin{array}{*{20}{l}} {1,\quad {F_i} = 1\;\;\text{and}\;\;\sum\limits_{k = 1}^{20} {{s_{i + k}} > 10} } \\ {0,\quad \text{else}} \end{array}} \right. $$ (6) 在实时检测过程中,以实时视频流作为输入,检测每一帧当前画面中的人体姿态和骨架关键点。从第二帧开始,如果前一帧与当前帧均检测出同一人的髋关节位置,即“无遮挡”状态,则进行关键点分析,计算髋关节关键点在这相邻两帧间的相对移动速率和方向。当满足可能摔倒的条件后,进行摔倒判定,开始统计后续20帧图像中的姿态类别,如果满足最终摔倒条件,则判断为一次摔倒。实时检测的情况下一次完整的摔倒检测流程图如图 4所示。
3. 数据集
3.1 采集和分类
本文使用的数据集分为3部分。第一部分是自建的室内红外数据集,摄像头采用艾睿光电红外热成像模组Xmodule T3,分辨率384×288,样本共6787张,场景包括走廊、办公室、大厅等室内场景;第二部分是运动物体热红外成像数据集(moving object thermal infrared imagery dataset,MOTIID),样本取自其中三段室外行人行走的视频,获取样本571张,均为室外场景;第三部分使用的是开放的免费FLIR热数据集FLIR_ADAS,获取样本926张。
本文对红外图像下的人体姿态定义了8种类别,分别是“直坐”、“躺下”、“下蹲”、“站立”、“弯腰”、“撑地”、“坐地”和“遮挡”,如图 5所示。
3.2 数据预处理
本文采用了Mosaic数据增强的方式对训练数据进行预处理,如图 6所示,Mosaic数据增强通过每次随机抽取数据集中的4张图片,采用随机裁剪、随机缩放、随机组合的方式生成一张新的训练图片。通过Mosaic数据增强,能够丰富场景内容,增强样本多样性,提高目标检测算法的抗干扰性。
4. 实验分析
本实验的实验环境为Win10_x64平台,CPU为Intel Core i7-9750H,内存16 G,GPU为NVIDIA GeForce RTX 2060,使用框架为torch1.6.0+opencv-python4.4.0,输入图片尺寸384×288,学习率为0.01,epochs为100。实验分为两部分:进行红外人体骨架检测实验,以测试本文算法定位精度和实时性;进行红外视频摔倒判定实验,以验证本文策略的可行性。
4.1 红外人体骨架检测实验
为了排除遮挡状态对关键点检测的干扰,需准确识别遮挡与非遮挡状态,如图 7所示。
图 7(a)与图 7(d)分别是遮挡状态的两种标注方式示意图,图 7(a)将未被遮挡的人体部分标注为遮挡,其预测结果如图 7(b)和图 7(c)所示,图 7(d)在标注遮挡类别的目标框时加入部分遮挡物,其预测结果如图 7(e)和图 7(f)所示。从图 7(b)中可以看到,全身被识别为站立姿态的同时,上身也被识别为遮挡,即出现了冗余检测,而如图 7(e)和图 7(f)所示,在遮挡状态标记框中加入部分遮挡物后,站立和遮挡得到了明显的区分。经实验,在标记遮挡状态时,当选取的遮挡物在标记框纵向占比为0.2或横向占比为0.3时,对遮挡和非遮挡状态的区分效果较好。
图 7 遮挡状态标注与预测图:(a) 标注时不含遮挡物;(b) 无遮挡物标注方式检测无遮挡状态;(c) 无遮挡物标注方式检测遮挡状态;(d) 标注时含部分遮挡物;(e) 含遮挡物标注方式检测无遮挡状态;(f) 含遮挡物标注方式检测遮挡状态Figure 7. Annotated and predicted images under occlusion: (a) No obstructions included when labeling; (b) Detection of unobstructed state using unobstructed object annotation method; (c) Detection of occlusion status using unobstructed object annotation method; (d) Include partial obstructions when labeling; (e) Detection of unobstructed state using labeling method with occluded objects; (f) Detection of occlusion status using labeling method with occluded objects本实验将本文算法与原Alphapose算法进行对比,取500张图片作为测试集,部分检测结果如图 8所示。
图 8 实验结果:(a) Alphapose检测自建红外数据集;(b) Ours检测自建红外数据集;(c) Ours检测MOTIID红外测试集;(d) Ours检测FLIR_ADAS数据集Figure 8. Experimental results: (a) Alphapose for detecting self built infrared datasets; (b) Ours for detecting self built infrared datasets; (c) Ours for detecting MOTIID dataset; (d) Ours for detecting FLIR_ADAS datasets本实验采用DIoU(Distance-IoU)衡量算法的定位精度,DIoU反映了真实与预测之间的相关度,计算方法如公式(7)所示:
$$ \text{DIoU} = \text{IoU} - \frac{{{\rho ^2}(b,{b^{\text{gt}}})}}{{{c^2}}} $$ (7) 式(7)中:b和bgt分别表示预测框和真实框的中心点位置坐标;ρ(b, bgt)是两个中心点之间的欧氏距离;c表示真实框和预测框的最小外接矩形的对角线距离;IoU表示真实框与预测框之间的交并比。DIoU值越接近于1,则预测位置越接近真实位置。
分别使用原Alphapose算法和本文算法计算DIoU值,其平均值DIoU_Average和平均处理时间如表 2所示。
表 2 实验结果Table 2. Experimental resultsMethod DIoU_average Time_average/s Alphapose 0.910 0.085 Ours 0.926 0.068 由图 8(a)和图 8(b)可以看到,因为在标记遮挡姿态时加入了部分遮挡物,所以识别出的遮挡姿态目标框也向被遮挡方向进行了部分延伸,符合遮挡的特征,这也验证了本文针对遮挡姿态修改标记方法的有效性。如图 8(a)~图 8(b)所示,原Alphapose算法与本文算法的检测结果基本相近,但也出现少数偏差。原Alphapose算法对“躺下”姿态的定位不够准确,导致后续的骨架检测出现误差,而本文算法得到的预测框更加逼近其真实目标框,得到的人体区域更加紧凑,检出的人体骨架也较准确。结合表 2中的计算结果可知,本文算法对人体区域的定位较准,速度更快。如图 8(c)~图 8(d)所示,本文算法也可检测室外人体目标,但对于远距离的人体可能产生漏检,如图 8(d)所示,远处路灯下的人体没有被检出。同时,在人群聚集和多人重叠场景下,容易发生漏检现象。
4.2 红外视频摔倒判定实验
本实验使用本文算法检测实时红外视频流,从中截取12段热红外视频,共计36个摔倒动作和51个类摔倒动作,其中类摔倒动作包括快速下蹲、俯身拾取和缓慢坐地。记摔倒动作被识别为摔倒的个数为TP,摔倒动作被识别为非摔倒的个数为FN,类摔倒动作被识别非摔倒的个数为TN,类摔倒动作被识别为摔倒的个数为FP。改变阈值Th,计算不同阈值下的准确率,计算方法如公式(8)所示:
$$ \text{Accuracy} = \frac{{\text{TP} + \text{TN}}}{{\text{TP} + \text{TN} + \text{FP} + \text{FN}}} $$ (8) 从表 3可以看出,当Th大于或等于0.04时,漏检的摔倒个数逐渐增多,因为设定的阈值大于部分真实摔倒动作的相对位移速度,容易将真实的摔倒动作漏检。而当Th小于或等于0.03时,真实的摔倒动作已全部被正确检出,但也出现误识别的情况,如将俯身拾取动作误识别为摔倒,如图 9所示。
表 3 不同Th下检测结果Table 3. Experimental results under different Th valuesTh TP FN TN FP Accuracy 0.01 36 0 41 10 88.5% 0.02 36 0 47 4 95.4% 0.03 36 0 50 1 98.9% 0.04 34 2 51 0 97.7% 0.05 32 4 51 0 95.4% 0.06 29 7 51 0 92.0% 0.07 25 11 51 0 87.4% 图 9(a)与图 9(b)分别是Th取0.03时,本算法对真实摔倒动作和俯身拾取动作的检测结果,图 9(c)是Th取0.01时,本算法对俯身拾取动作的检测结果。从图 9(c)可以看出,当Th取值偏小时,因为俯身拾取动作在下蹲过程中可能其速度大于设定的阈值,所以有可能将俯身拾取识别为摔倒。而当Th取0.03时,可有效过滤此类动作,并且能够检测出真实的摔倒动作。因为在本实验环境下,阈值Th为0.03时,准确率最高,所以取0.03作为本实验环境下Th的最佳值。因为本文策略以关键点瞬时位移速度大于阈值为前提,辅以后续姿态加以判定,而快速下蹲动作不满足其后续姿态判定中对撑地、坐地或躺下的要求,所以实验中没有出现快速下蹲被误识别为摔倒的情况。从实验结果来看,本算法对快速下蹲、缓慢坐地、俯身拾取这样的类摔倒动作具有一定的抗干扰性。
本实验的目的是对真实摔倒动作与类摔倒动作进行区分,可以根据当前Th得到的准确率变化情况更新Th值。如果本轮Th得到的准确率高于上一轮的准确率,则表明Th的变化方向是有效的,反之则表明上一轮Th值更接近最优值,转而反方向寻值。在迭代过程中,当准确率变化趋势发生改变时,通过改变步长逼近最佳阈值。阈值Th的更新计算公式如式(9)所示:
$$ \text{T}{\text{h}}_{j+1}=\text{T}{\text{h}}_{j}+a\ast (-2){}^{-m}\text{,}j\ge 0 $$ (9) 式中:Thj表示第j轮迭代中的阈值;a*(-2)-m表示阈值的变化步长。本实验中a取值0.04,m的初始值设为1,记阈值为Thj时的检测准确率为Accj。
更新过程步骤如下:
1)设置初始阈值Th0=0.05,此时j=0,按式(8)计算对应的检测准确率Acc0;
2)设m=1,a=0.04,按公式(9)计算Thj+1,并计算对应的Accj+1;
3)若Accj+1>Accj,则j=j+1,再按公式(9)计算下一代阈值Thj+1,并计算Accj+1;否则,m=m+1,j=j+1,再按公式(9)计算Accj+1;
4)重复执行步骤3)。
5. 总结
针对现有人体摔倒检测方法对类摔倒动作容易误检的问题,本文提出基于改进Alphapose的红外图像摔倒检测算法,使用改进的Alphapose算法检测红外图像中的人体关键点和姿态类别,结合人体关键点信息和姿态类别进行摔倒判定。本文在原算法的基础上,使用YOLO v5s作为Alphapose的人体检测器和姿态分类器,在提取人体目标框的同时直接完成对人体姿态的分类,在摔倒与类摔倒场景中,对人体摔倒检测的准确率达到98%。本算法也存在着不足,如本算法利用人体关键点的位置信息做关键点分析,适用于无遮挡状态下的人体摔倒检测。阈值的选取与算法在不同设备上的运行速度有关,对阈值的自适应取值是后续研究的重点。
-
表 1 模块参数
Table 1 Module parameters
Focal length/mm Single detector
pixel size/μmLow-light-level module 63 9.8×9.8 Short wave infrared module 48 15×15 Long wave infrared module 75 12×12 White light module 51 9.8×9.8 表 2 图像尺寸参数
Table 2 Image size parameters
Original image size/mm2 Size after scaling/mm2 Low-light-level module 12.42×9.93 12.42×9.933 Short wave infrared module 9.60×7.68 12.42×9.936 Long wave infrared module 15.36×12.29 12.42×9.937 White light module 12.54×10.04 12.42×9.944 表 3 待测系统的平行性偏差(短波红外模块)
Table 3 Parallelism deviation of the system under test(short wave infrared module)
Theoretical angle Test result Parallelity Pitching 1°0′0″ 0°59′59″ 1″ Azimuth 1°0′0″ 0°59′58″ 2″ Pitching 2°0′0″ 1°59′58″ 2″ Azimuth 2°0′0″ 1°59′56″ 4″ Pitching 3°0′0″ 2°59′57″ 3″ Azimuth 3°0′0″ 2°59′56″ 4″ Pitching 4°0′0″ 3°59′57″ 3″ Azimuth 4°0′0″ 3°59′58″ 2″ Pitching 5°0′0″ 4°59′56″ 4″ Azimuth 5°0′0″ 4°59′56″ 4″ Pitching 6°0′0″ 5°59′56″ 4″ Azimuth 6°0′0″ 5°59′57″ 3″ 表 4 待测系统的平行性偏差(激光测距模块)
Table 4 Parallelism deviation of the system under test(laser ranging module)
Theoretical angle Test result Parallelity Pitching 1°0′0″ 0°59′59″ 1″ Azimuth 1°0′0″ 0°59′59″ 1″ Pitching 2°0′0″ 1°59′58″ 2″ Azimuth 2°0′0″ 1°59′59″ 1″ Pitching 3°0′0″ 2°59′58″ 2″ Azimuth 3°′0″ 2°59′58″ 2″ Pitching 4°0′0″ 3°59′57″ 3″ Azimuth 4°0′0″ 3°59′8″ 2″ Pitching 5°0′0″ 4°59′57″ 3″ Azimuth 5°0′0″ 4°59′58″ 2″ Pitching 6°0′0″ 5°59′57″ 3″ Azimuth 6°0′0″ 5°59′57″ 3″ 表 5 待测系统的平行性偏差(白光模块)
Table 5 Parallelism deviation of the system under test(white light module)
Theoretical angle Test result Parallelity Pitching 1°0′0″ 0°59′56″ 4″ Azimuth 1°0′0″ 0°59′57″ 3″ Pitching 2°0′0″ 1°59′57″ 3″ Azimuth 2°0′0″ 1°59′56″ 4″ Pitching 3°0′0″ 2°59′57″ 3″ Azimuth 3°0′0″ 2°59′56″ 4″ Pitching 4°0′0″ 3°59′55″ 5″ Azimuth 4°0′0″ 3°59′55″ 5″ Pitching 5°0′0″ 4°59′55″ 5″ Azimuth 5°0′0″ 4°59′56″ 4″ Pitching 6°0′0″ 5°59′55″ 5″ Azimuth 6°0′0″ 5°59′57″ 3″ 表 6 待测系统的平行性偏差(长波红外模块)
Table 6 Parallelism deviation of the system under test(long wave infrared module)
Theoretical angle Test result Parallelity Pitching 1°0′0″ 0°59′54″ 6″ Azimuth 1°0′0″ 0°59′55″ 5″ Pitching 2°0′0″ 1°9′57″ 3″ Azimuth 2°0′0″ 1°59′55″ 5″ Pitching 3°0′0″ 2°59′55″ 5″ Azimuth 3°0′0″ 2°59′52″ 8″ Pitching 4°0′0″ 3°59′53″ 7″ Azimuth 4°0′0″ 3°59′54″ 6″ Pitching 5°0′0″ 4°59′55″ 5″ Azimuth 5°0′0″ 4°59′55″ 5″ Pitching 6°0′0″ 5°59′54″ 6″ Azimuth 6°0′0″ 5°59′53″ 7″ 表 7 待测系统的平行性偏差(微光模块)
Table 7 Parallelism deviation of the system under test(low-light-level module)
Theoretical angle Test result Parallelity Pitching 1°0′0″ 0°59′53″ 7″ Azimuth 1°0′0″ 0°59′54″ 6″ Pitching 2°0′0″ 1°59′54″ 6″ Azimuth 2°0′0″ 1°59′53″ 7″ Pitching 3°0′0″ 2°59′53″ 7″ Azimuth 3°0′0″ 2°9′52″ 8″ Pitching 4°0′0″ 3°59′53″ 7″ Azimuth 4°0′0″ 3°59′52″ 8″ Pitching 5°0′0″ 4°59′52″ 8″ Azimuth 5°0′0″ 4°59′54″ 6″ Pitching 6°0′0″ 5°59′51″ 9″ Azimuth 6°0′0″ 5°59′52″ 8″ -
[1] 谢国兵, 李超良, 蔡锦浩, 等. 激光测距机光轴平行性测试方法[J]. 电子测试, 2020(19): 48-51. https://www.cnki.com.cn/Article/CJFDTOTAL-WDZC202019017.htm XIE Guobing, LI Chaoliang, CAI Jinhao, et al. Test method for optical axis parallelism of laser rangefinder[J]. Electronic Testing, 2020(19): 48-51 https://www.cnki.com.cn/Article/CJFDTOTAL-WDZC202019017.htm
[2] 贾文武, 刘培正, 唐自力, 等. 靶场适用的光电经纬仪光轴平行性检测[J]. 光学精密工程, 2020, 28(8): 1670-1677. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202008006.htm JIA Wenwu, LIU Peizheng, TANG Zili, et al. Detection of optical axis parallelism using photoelectric theodolites suitable for shooting ranges[J]. Optical Precision Engineering, 2020, 28(8): 1670-1677 https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202008006.htm
[3] 杨雪, 陈文红, 张玺, 等. 宽光谱光电系统多光轴平行性工程化测试方法研究[J]. 激光与红外, 2019, 49(8): 978-982. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201908013.htm YANG Xue, CHEN Wenhong, ZHANG Xi, et al. Research on engineering testing method for multi axis parallelism of wide spectral optoelectronic systems [J]. Laser and Infrared, 2019, 49(8): 978-982 https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201908013.htm
[4] 王瑶, 李岩, 付跃刚. 便携式可见光多光轴平行性校正系统[J]. 长春理工大学学报(自然科学版), 2019, 42(2): 65-68. https://www.cnki.com.cn/Article/CJFDTOTAL-CGJM201902015.htm WANG Yao, LI Yan, FU Yuegang. Portable visible light multi axis parallelism correction system[J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2019, 42(2): 65-68 https://www.cnki.com.cn/Article/CJFDTOTAL-CGJM201902015.htm
[5] 赵玮, 昌明, 刘虎, 等. 空间旋转多光轴平行性校准技术[J]. 应用光学, 2018, 39(5): 627-632. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201805007.htm ZHAO Wei, CHANG Ming, LIU Hu, et al. Multi axis parallelism calibration technique for spatial rotation[J]. Applied Optics, 2018, 39(5): 627-632. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201805007.htm
[6] 徐丹慧, 唐霞辉, 方国明, 等. 基于干涉条纹的光轴平行性校准方法[J]. 光学学报, 2020, 40(17): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202017016.htm XU Danhui, TANG Xiahui, FANG Guoming, et al. A calibration method for optical axis parallelism based on interference fringes[J]. Journal of Optics, 2020, 40(17): 129-136 https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202017016.htm
[7] ZOU Huihui, WU Hongbing, ZHOU Lujun. A testing method of optical axes parallelism of shipboard photoelectrical theodolite[J]. China Satellite Maritime Tracking and Control (China), 2016, 9684: 96841V-96841V-5.
[8] 谢国兵, 薛永刚, 晁格平, 等. 基于LABVIEW的多光轴平行性测试方法[J]. 应用光学, 2018, 39(6): 856-861. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201806018.htm XIE Guobing, XUE Yonggang, CHAO Geping, et al. Multi axis parallelism testing method based on LABVIEW[J]. Applied Optics, 2018, 39(6): 856-861. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201806018.htm
[9] 应家驹, 陈玉丹, 武东生, 等. 双目光轴平行性检校仪检测精度分析[J]. 激光与红外, 2018, 48(6): 750-755. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201806016.htm YING Jiaju, CHEN Yudan, WU Dongsheng, et al. Analysis of testing accuracy of binocular optical axis parallelism calibration instrument[J]. Laser and Infrared, 2018, 48(6): 750-755. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201806016.htm
[10] 崔启胤. 大间距光轴平行性检测方法研究[D]. 长春: 长春理工大学, 2018. CUI Qiyin. Research on the Detection Method of Large Distance Optical Axis Parallelism[D]. Changchun: Changchun University of Technology, 2018.
[11] 王志强. 350 mm口径离轴反射式平行光管的设计[D]. 长春: 长春理工大学, 2020. WANG Zhiqiang. Design of 350 mm Off-axis Reflective Collimator[D]. Changchun: Changchun University of Technology, 2020.
[12] YING Jiaju, CHEN Yudan, LIU Jie, et al. Design and realization of photoelectric instrument binocular optical axis parallelism calibration system[C]//Proc. Of on SPIE on Optical Measurement Technology and Instrumentation, 2016: 10155: 101550X.
[13] 黄富瑜, 李刚, 史云胜, 等. 多光谱多光轴平行性检测方案设计与误差分析[J]. 光电工程, 2019, 46(2): 12-20. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201902002.htm HUANG Fuyu, LI Gang, SHI Yunsheng, et al. Design and error analysis of multi spectral and multi axis parallelism detection scheme[J]. Optoelectronic Engineering, 2019, 46(2): 12-20. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201902002.htm
-
期刊类型引用(3)
1. 邬苏秦,王府圣,周川鸿,朱卫纲,曲卫. 基于深度学习的毫米波雷达人体摔倒检测系统研究. 电子设计工程. 2024(02): 181-186 . 百度学术
2. 丁玲,赵昆. 基于人体关键点识别的机器人舞姿模仿系统研究. 自动化与仪器仪表. 2024(06): 169-173 . 百度学术
3. 王梦溪,李峻. 老年人跌倒检测技术研究综述. 计算机与现代化. 2024(08): 30-36 . 百度学术
其他类型引用(1)