多波段图像融合系统光轴平行性装调技术研究

张奇, 陆庆华, 郭骞, 张春鹏, 皮冬明, 向柳静, 文洪青, 何新宇

张奇, 陆庆华, 郭骞, 张春鹏, 皮冬明, 向柳静, 文洪青, 何新宇. 多波段图像融合系统光轴平行性装调技术研究[J]. 红外技术, 2023, 45(12): 1294-1298.
引用本文: 张奇, 陆庆华, 郭骞, 张春鹏, 皮冬明, 向柳静, 文洪青, 何新宇. 多波段图像融合系统光轴平行性装调技术研究[J]. 红外技术, 2023, 45(12): 1294-1298.
ZHANG Qi, LU Qinghua, GUO Qian, ZHANG Chunpeng, PI Dongming, XIANG Liujing, WEN Hongqing, HE Xinyu. Research on Optical Axis Parallelism Adjustment Technology for Multi band Image Fusion System[J]. Infrared Technology , 2023, 45(12): 1294-1298.
Citation: ZHANG Qi, LU Qinghua, GUO Qian, ZHANG Chunpeng, PI Dongming, XIANG Liujing, WEN Hongqing, HE Xinyu. Research on Optical Axis Parallelism Adjustment Technology for Multi band Image Fusion System[J]. Infrared Technology , 2023, 45(12): 1294-1298.

多波段图像融合系统光轴平行性装调技术研究

详细信息
    作者简介:

    张奇(1996-),男,吉林省长春市人,硕士,工程师,主要研究方向为光学设计。E-mail:1021154748@qq.com

    通讯作者:

    陆庆华(1981-),男,壮族,广西省百色市人,学士,高级工程师,主要研究方向为体设计。E-mail:99711694@qq.com

  • 中图分类号: TH74

Research on Optical Axis Parallelism Adjustment Technology for Multi band Image Fusion System

  • 摘要: 本文基于一种多波段图像融合系统,对系统光轴平行性装调技术进行研究。系统为五光轴平行系统,包括白光模块、微光模块、短波红外模块、长波红外模块、激光测距模块,通过计算得到精度最高的为微光模块,精度为32.09″,即平行性偏差小于32.09″不影响系统使用。装调时采用光轴中心与平行光管十字靶板中心对准的方法,得到的图像为最大图像尺寸的99.89%,对图像信息获取不产生影响。最后用搭建好的平台对系统进行实验验证,实验证明平行性最大偏差为9″,小于系统最大允许误差,所以得出结论该装调方法对类似产品的装调具有一定参考价值。
    Abstract: This article is based on a multiband image fusion system and studies the alignment technology of the parallelism of the optical axis of the system. The five-axis parallel system includes a white light module, low light level module, short wave infrared module, long wave infrared module, and laser ranging module. The lowest light level module with the highest accuracy was 32.09. A parallelism deviation of less than 32.09 does not impact the system's usability. During installation and adjustment, the optical axis was aligned with the center of the collimator cross-target plate. This alignment produced an image size that is 99.89% of the maximum possible, which does not hinder the acquisition of image information. Finally, the system is verified experimentally using the developed platform. Experiments proved that the maximum deviation of the parallelism was nine, which is less than the maximum allowable error of the system. Therefore, this assembly and adjustment method had a certain reference value for the assembly and adjustment of similar products.
  • 随着医疗保障的提高,人口老龄化已是当今社会的一个问题。根据相关调查表明,老年人受到意外伤害的主要原因之一就是摔倒。因此,防止老年人摔倒也变得越来越重要。世界卫生组织报告说,每年因跌倒造成的严重伤害超过3730万人次,死亡64.6万人[1]。摔倒是一个重要的公共健康问题,其伤害很大程度上取决于救助响应时间的长短。智能的摔倒检测系统可以全天候工作,及时做出反应,实时保护人们的安全。

    现在主流的人体摔倒检测方法根据检测传感器的不同大致分为基于穿戴式的摔倒检测、基于环境式的摔倒检测以及基于计算机视觉的摔倒检测3类。基于穿戴式检测法通常将加速度计以及陀螺仪等传感器佩戴在身体上,收集运动数据[2-4],使用采集得到的传感器数据训练MLP[5](multilayer perceptron)、SVM[6](support vector machines)等机器学习算法进行人体摔倒检测。基于外部传感器的摔倒检测方法需要随身穿戴传感器,存在用户穿戴起来不方便和不自在,容易脱落等问题。基于环境式的摔倒检测是提前在指定的区域布置好诸如压力传感器、声音传感器等,通过传感器采集到的数据进行检测,这种方法存在容易被环境噪声影响[7],成本高等问题。另外,基于计算机视觉的摔倒检测法通常对摄像头拍摄到的图像进行目标的提取,获取其特征,再通过对特征的分析从而得到摔倒检测结果。文献[8]将行人用矩形框表示,通过矩形框的长宽比例来说明行人的姿态,从而进行摔倒检测;文献[9]将目标的轮廓拟合成椭圆,提取其几何与运动两种特征,组成一个新的特征,使用SVM进行摔倒判断;文献[10]使用高斯混合模型得到人体目标,提取多帧特征并融合得到基于时间序列的运动特征,使用一个简单的卷积神经网络判断摔倒。文献[11]中提出一种基于人体骨骼关键点和神经网络的人体摔倒检测方法,通过Alphapose检测人体骨骼关键点,并用来训练LSTM(long short term memory)神经网络,实现人体摔倒的检测。

    上述人体摔倒检测研究中使用的视频与图像均是可见光图像,然而在生活中应用人体摔倒检测的往往是老人和容易出现情况的病人,这些地方一般都是需要24h监控。可见光图像在夜晚和光照条件不好的场景中不能很好地呈现出图像,在这些情况下不能做到准确地检测摔倒情况。红外图像目标识别技术是指通过对红外图像进行预处理,然后提取目标特征,最后实现目标的定位与识别[12]。与可见光图像相比,红外图像直观反映的是物体的温度,一般而言红外图像中行人的亮度比背景亮度要高,且纹理、颜色和光照对红外图像几乎没什么影响,这使得红外图像在进行人体检测方面具有很大的优势和潜力。

    针对上述问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。该方法采用红外相机采集图像,图像经过全卷积网络得到人体目标中心点,并在中心点位置回归出目标位置以及状态属性等,从而实现人体摔倒检测。

    目标检测识别往往在图像上将目标以轴对称的框形式框出,大多数成功的目标检测器都是罗列出大量的候选框并对其分类。这样做法浪费时间,并且低效,还需要额外的后处理。本文中提出采用一种不同的方法,构建模型是将目标作为一个点,即目标的中心点。检测器通过热力图寻找中心点然后回归目标的其他属性,比如大小,3D位置坐标,方向甚至姿态。相比较于基于目标框的检测器,基于中心点的检测网络centernet[13]是一个端到端的、独特的、简单而快速的目标检测器。

    在网络中,仅仅将图像传入全卷积网络,得到高维特征图,然后在特征图上进行卷积操作得到热力图,确定目标中心点、中心点偏移值以及目标尺寸大小。网络整体架构如图 1所示。

    图  1  Centernet网络整体架构
    Figure  1.  Overall network architecture of Centernet

    令$I \in {R^{W \times H \times 3}}$为输入图像,其宽为W,高为H。目标是生成关键点热力图${Y^ \wedge } \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$,其中R是输出步长(即尺寸缩放比例),C是关键点类型数(即输出特征通道数),在本文中由于目标类别有3种,因此C=3。使用Y^x, y, c=1表示检测到的关键点,Y^x, y, c=0表示前景。其中使用深层聚合网络DLA[14](deep layer aggregation)预测得到每张图像I的关键点热力图Y^,DLA是带多级跳跃连接的图像分类网络。

    在训练关键点预测网络中,对于Ground Truth(即GT)的关键点c,其位置定义为pR2,计算得到低分辨率上的对应关键点为$\tilde p \in [\frac{p}{R}]$。然后通过使用高斯核${Y_{xyc}} = \exp ( - \frac{{{{(x - {{\tilde p}_x})}^2} + {{(y - {{\tilde p}_y})}^2}}}{{2\sigma _p^2}})$将每一个GT关键点映射到热力图$Y \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$上,其中${\sigma _p}$是目标尺度-自适应的标准方差[15]。如果对于同个类c(同个关键点或是目标类别)有两个高斯函数发生重叠,选择元素级最大的。训练目标函数是一个像素级逻辑回归的焦点损失函数,其公式如下[16]

    $${L_k} = \frac{{ - 1}}{N}\sum\limits_{xyc} {\left\{ {\begin{array}{*{20}{l}} {{{(1 - {Y^ \wedge }_{xyc})}^\alpha }\ln ({Y^ \wedge }_{xyc})}&{{\rm{if}}\;{Y_{xyc}}{\rm{ = }}1}\\ {{{(1 - {Y^ \wedge }_{xyc})}^\beta }\ln {{({Y^ \wedge }_{xyc})}^\alpha }}&{{\rm{otherwise}}}\\ {\ln (1 - {Y^ \wedge }_{xyc})}&{{\rm{otherwise}}} \end{array}} \right.} $$ (1)

    式中:αβ是损失函数的超参数;N是图像I中的关键点个数,式中除以N是为了将所有焦点损失归一化。在实验中,一般选取α=2,β=3。

    由于在图像下采样时,GT的关键点会因数据是离散的而产生偏差,因此对每个中心点附加预测了一个局部偏移${O^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$,所有类别c共享同个偏移预测,这个偏移使用L1 loss来训练,公式如下:

    $${L_{{\rm{off}}}} = \frac{1}{N}\sum\limits_p {\left| {{O^ \wedge }_{\tilde p} - (\frac{p}{R} - \tilde p)} \right|} $$ (2)

    将目标作为点来进行目标检测是本文算法的核心思想,具体做法如下。假设在图像中目标k的边界框ck为$(x_1^{(k)}, y_1^{(k)}, x_2^{(k)}, y_2^{(k)})$,那么其中心位置为${p_k} = (\frac{{x_1^{(k)} + x_2^{(k)}}}{2}, \frac{{y_1^{(k)} + y_2^{(k)}}}{2})$。通过使用上文中提到的关键点估计器Y^来预测图像中所有目标的中心点。此外,为每个目标回归出目标的尺寸,其公式为${s_k} = (x_2^{(k)} - x_1^{(k)}, y_2^{(k)} - y_1^{(k)})$。为了减少计算负担,对所有对象种类使用单一的尺寸预测,表达式为:${s^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$。另外在每个中心点位置添加一个L1 loss,目标尺寸的损失函数如式(3)所示:

    $${L_{{\rm{size}}}} = \frac{1}{N}\sum\limits_{k = 1}^N {\left| {s_{{p_k}}^ \wedge - {s_k}} \right|} $$ (3)

    在此方法中,不用归一化目标尺寸而是直接使用原始像素坐标。为了调节总的loss的影响,分别对损失函数中的偏移损失和尺寸损失乘以一个影响系数,整个训练的目标损失函数如式(4)所示:

    $${L_{{\rm{det}}}} = {L_k} + {l_{{\rm{size}}}}{L_{{\rm{size}}}} + {l_{{\rm{off}}}}{L_{{\rm{off}}}} $$ (4)

    实验中,根据经验影响系数分别设置为λsize=0.1,λoff=1。在整个过程中,通过使用单个网络来预测出关键点${Y^ \wedge }$,中心点偏移量${O^ \wedge }$以及目标尺寸${S^ \wedge }$。整个网络预测结果会在每个位置输出(C+4)个值,即关键点类别c,关键点偏移量xy以及尺寸WH,所有的输出共享同一个全卷积网络骨干。对于每一个通道,其主干的特征都要通过一个单独的3×3卷积,ReLU和一个1×1卷积。

    在前面提到所提的检测方法是通过检测每个目标的中心点,也就是在热点图中提取每个类别的峰值点。得到峰值点的方法是:将热力图上的所有的响应点与其相邻的8个点进行比较,如果该点响应值大于或者等于其他8个临近点则保留,否则丢弃。最后保留所有满足之前要求的前100个峰值点。令$p_c^ \wedge $是检测到的c类别的n个中心点的集合,${p^ \wedge } = \left\{ {(x_i^ \wedge , y_i^ \wedge )} \right\}_{i = 1}^n$表示类别c的所有中心点的集合,每个关键点都以整型坐标(xi, yi)的形式给出。通过使用一个关键点值${Y^ \wedge }_{{x_i}, {y_i}, c}$作为其检测置信度的度量,并且在关键点位置处生成一个边界框,其表达式如下式所示:

    $$\begin{gathered} (x_i^ \wedge + \delta x_i^ \wedge - w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge - h_i^ \wedge /2 \\ x_i^ \wedge + \delta x_i^ \wedge + w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge + h_i^ \wedge /2) \\ \end{gathered} $$

    式中:$(\delta x_i^ \wedge , \delta y_i^ \wedge ) = O_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是关键点偏移预测结果,$(w_i^ \wedge , h_i^ \wedge ) = S_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是目标边界框的尺度预测结果。

    目前基本上所有的基于视觉的摔倒检测研究都是在可见光图像上基础上进行的,为了避免复杂光照条件影响以及能在夜晚和白天24h工作,本文研究了基于红外图像下的人体摔倒检测。因为没有公开的红外图像人体摔倒数据集,为此在这对公开的人体摔倒数据集进行分析,了解其数据集中的人体行为,摔倒场景,图像分辨率等内容。在此基础上,搭建人体摔倒场景,设定行为内容,然后使用红外成像设备获取红外数据,制作红外图像人体摔倒数据集。

    本文主要研究了MuHAVi-MAS17和Le2i两个公开数据集,这两个摔倒数据集在摔倒检测中使用最多,其数据量大,内容丰富,是目前主流的人体摔倒检测数据库。

    MuHAVi-MAS17是一个行为识别数据集,其中包含了人们在生活中的常做的行为,诸如走路、坐、奔跑以及需要的摔倒动作。此数据集使用8个摄像头在不同的方位来录制数据,内容丰富且样本多样化。数据集中每个人都有多个不同视角的摔倒图像,有左摔和右摔姿势,分辨率为720×576。

    Le2i摔倒数据集是法国学者们使用一个分辨率为320×240的相机在一个拟真的场景中录制而来。数据集中有200多个视频序列,包含办公室、咖啡室、客厅以及演讲室等不同场景。在各种场景中的人进行了多种日常动作和摔倒行为,日常动作有下蹲、行走以及弯腰等,摔倒姿势有前后摔和左右摔等,内容丰富,数据充足。

    通过对上述摔倒数据集的分析与研究,本文使用红外图像设备自行采集红外图像人体摔倒图像,建立摔倒数据集。选择在一间场景较为简单的房间为摔倒场景,将红外相机放置在房间的不同角落以获得不同方向的图像。红外相机分辨率为640×480,输入电压12V,是一款高清单目热红外成像仪。红外相机如图 2所示。

    图  2  红外相机以及电源
    Figure  2.  Infrared camera and power supply

    通过电脑读取红外相机获取的原始实时流数据,由于原始红外数据是14位的,无法使用电脑显示出来,所以使用OpenCV对其进行预处理,转为8位数据,并对图像线性拉伸,提高对比度。整套录制场景如图 3所示。

    图  3  红外数据录制场景
    Figure  3.  Infrared data recording scene

    本文实验平台是一台Intel Xeon八核E5-2620V4(2.1GHz,QPI速度8.0GT/s),64G内存的高性能计算工作站。为了验证本文提出的检测方法,邀请了几位成人模拟室内日常活动以及摔倒行为,图像中包含单人活动、两人活动以及多人(3~4人)活动,共录制了4组数据,共获取到30000多张红外图像。对已经获取的红外人体摔倒数据集进行筛选,考虑到获取数据时帧率很高,导致相邻的图像内容变化不大,经过观察选择每10张中提取一张作为有效数据,提取大约3000张图像作为训练与测试数据,其中训练集2500余张,测试集约260余张。部分数据集如图 4所示。

    图  4  部分人体摔倒数据集
    Figure  4.  Partial human fall dataset

    通过使用本文提出的检测方法在制作的红外行人摔倒数据集上进行测试,经过参数的调整,得到比较好的结果,部分实验结果如图 5所示。

    图  5  人体摔倒检测效果
    Figure  5.  Human fall detection effect

    在以往的人体摔倒检测中,摔倒的状态往往是平躺或者侧躺的姿势,本文为了提高样本的多样性,更加真实地模拟现实场景中的摔倒,添加了例如趴着、跪着摔倒以及由于摔倒而脚抬升等不同的摔倒姿势。通过图 5中的实验结果可以看出,算法能够准确地检测出各种摔倒姿态与正常两状态。对于在摔倒时发生前有行人或物体遮挡情况下亦能准确检测,能够满足在一定场景内的行人摔倒检测需求。

    为了分析本文提出算法的性能和实时性,通过使用YOLO v3、Faster RCNN算法与之做对比实验,测试结果如表 1所示。

    表  1  对比实验结果
    Table  1.  Comparison of experimental results
    Algorithm Accuracy/(%) Time/(ms/frame)
    Yolo v3 96.9 0.0421
    Faster RCNN 95.7 0.441
    Ours 98.4 0.0462
    下载: 导出CSV 
    | 显示表格

    从表中可以看出,Yolo v3与本文算法的运行速度很快,而Faster RCNN算法速度较慢。由于本文方法网络的整个输出都是直接从关键点估计得出,因此不需要基于IOU(intersection over union)的非极大值抑制NMS(non max suppression)或者其他后续处理,这对整个网络的检测速度有了很大的提升。表中可以看出本文方法在红外图像人体摔倒检测中准确率达到了98%以上,比其他两种方法高,对有遮挡和各种不同姿态的摔倒方式等较为复杂的情况下都能有效定位与识别。

    为了进一步分析实验结果的可靠性,选择摔倒检测中常用的准确率和召回率来对本文训练的模型进行评判。通过改变识别阈值,得到不同阈值下的准确率与召回率,最后得到P-R(precision-recall)曲线,如图 6所示。

    图  6  本文算法的P-R曲线
    Figure  6.  The P-R curve of the algorithm in this paper

    对于P-R曲线来说,曲线下的面积越大,即AP(average precision)值越大,证明模型的性能越好。从图 6曲线中能够看出,在使用的较少的测试数据下本文训练的模型性能优越,能够准确进行红外图像下的人体摔倒检测。

    针对人体摔倒检测问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。基于目前人体摔倒检测所使用的数据集特点,搭建红外图像采集系统与环境,建立了自己的红外图像人体摔倒数据集。通过关键点估计来找到人体目标中心点,然后回归人体目标属性,如目标尺寸、标签等,从而得到检测结果。实验结果表明,本文提出的方法在红外图像上能实时地进行人体摔倒检测,有较好的准确性和鲁棒性,具有较高的实际应用价值。在未来的工作中,扩展自建的红外图像人体摔倒数据集,丰富人体摔倒的场景和姿态,进一步研究红外图像下人体摔倒检测问题是未来工作的重点研究内容。

  • 图  1   多波段图像融合系统外形

    Figure  1.   Appearance of multi band image fusion system

    图  2   前面板布局

    Figure  2.   Front panel layout

    图  3   测试平台

    Figure  3.   Test platform

    图  4   平行光管

    Figure  4.   Collimator

    图  5   两轴转台

    Figure  5.   Two axis turntable

    表  1   模块参数

    Table  1   Module parameters

    Focal length/mm Single detector
    pixel size/μm
    Low-light-level module 63 9.8×9.8
    Short wave infrared module 48 15×15
    Long wave infrared module 75 12×12
    White light module 51 9.8×9.8
    下载: 导出CSV

    表  2   图像尺寸参数

    Table  2   Image size parameters

    Original image size/mm2 Size after scaling/mm2
    Low-light-level module 12.42×9.93 12.42×9.933
    Short wave infrared module 9.60×7.68 12.42×9.936
    Long wave infrared module 15.36×12.29 12.42×9.937
    White light module 12.54×10.04 12.42×9.944
    下载: 导出CSV

    表  3   待测系统的平行性偏差(短波红外模块)

    Table  3   Parallelism deviation of the system under test(short wave infrared module)

    Theoretical angle Test result Parallelity
    Pitching 1°0′0″ 0°59′59″ 1″
    Azimuth 1°0′0″ 0°59′58″ 2″
    Pitching 2°0′0″ 1°59′58″ 2″
    Azimuth 2°0′0″ 1°59′56″ 4″
    Pitching 3°0′0″ 2°59′57″ 3″
    Azimuth 3°0′0″ 2°59′56″ 4″
    Pitching 4°0′0″ 3°59′57″ 3″
    Azimuth 4°0′0″ 3°59′58″ 2″
    Pitching 5°0′0″ 4°59′56″ 4″
    Azimuth 5°0′0″ 4°59′56″ 4″
    Pitching 6°0′0″ 5°59′56″ 4″
    Azimuth 6°0′0″ 5°59′57″ 3″
    下载: 导出CSV

    表  4   待测系统的平行性偏差(激光测距模块)

    Table  4   Parallelism deviation of the system under test(laser ranging module)

    Theoretical angle Test result Parallelity
    Pitching 1°0′0″ 0°59′59″ 1″
    Azimuth 1°0′0″ 0°59′59″ 1″
    Pitching 2°0′0″ 1°59′58″ 2″
    Azimuth 2°0′0″ 1°59′59″ 1″
    Pitching 3°0′0″ 2°59′58″ 2″
    Azimuth 3°′0″ 2°59′58″ 2″
    Pitching 4°0′0″ 3°59′57″ 3″
    Azimuth 4°0′0″ 3°59′8″ 2″
    Pitching 5°0′0″ 4°59′57″ 3″
    Azimuth 5°0′0″ 4°59′58″ 2″
    Pitching 6°0′0″ 5°59′57″ 3″
    Azimuth 6°0′0″ 5°59′57″ 3″
    下载: 导出CSV

    表  5   待测系统的平行性偏差(白光模块)

    Table  5   Parallelism deviation of the system under test(white light module)

    Theoretical angle Test result Parallelity
    Pitching 1°0′0″ 0°59′56″ 4″
    Azimuth 1°0′0″ 0°59′57″ 3″
    Pitching 2°0′0″ 1°59′57″ 3″
    Azimuth 2°0′0″ 1°59′56″ 4″
    Pitching 3°0′0″ 2°59′57″ 3″
    Azimuth 3°0′0″ 2°59′56″ 4″
    Pitching 4°0′0″ 3°59′55″ 5″
    Azimuth 4°0′0″ 3°59′55″ 5″
    Pitching 5°0′0″ 4°59′55″ 5″
    Azimuth 5°0′0″ 4°59′56″ 4″
    Pitching 6°0′0″ 5°59′55″ 5″
    Azimuth 6°0′0″ 5°59′57″ 3″
    下载: 导出CSV

    表  6   待测系统的平行性偏差(长波红外模块)

    Table  6   Parallelism deviation of the system under test(long wave infrared module)

    Theoretical angle Test result Parallelity
    Pitching 1°0′0″ 0°59′54″ 6″
    Azimuth 1°0′0″ 0°59′55″ 5″
    Pitching 2°0′0″ 1°9′57″ 3″
    Azimuth 2°0′0″ 1°59′55″ 5″
    Pitching 3°0′0″ 2°59′55″ 5″
    Azimuth 3°0′0″ 2°59′52″ 8″
    Pitching 4°0′0″ 3°59′53″ 7″
    Azimuth 4°0′0″ 3°59′54″ 6″
    Pitching 5°0′0″ 4°59′55″ 5″
    Azimuth 5°0′0″ 4°59′55″ 5″
    Pitching 6°0′0″ 5°59′54″ 6″
    Azimuth 6°0′0″ 5°59′53″ 7″
    下载: 导出CSV

    表  7   待测系统的平行性偏差(微光模块)

    Table  7   Parallelism deviation of the system under test(low-light-level module)

    Theoretical angle Test result Parallelity
    Pitching 1°0′0″ 0°59′53″ 7″
    Azimuth 1°0′0″ 0°59′54″ 6″
    Pitching 2°0′0″ 1°59′54″ 6″
    Azimuth 2°0′0″ 1°59′53″ 7″
    Pitching 3°0′0″ 2°59′53″ 7″
    Azimuth 3°0′0″ 2°9′52″ 8″
    Pitching 4°0′0″ 3°59′53″ 7″
    Azimuth 4°0′0″ 3°59′52″ 8″
    Pitching 5°0′0″ 4°59′52″ 8″
    Azimuth 5°0′0″ 4°59′54″ 6″
    Pitching 6°0′0″ 5°59′51″ 9″
    Azimuth 6°0′0″ 5°59′52″ 8″
    下载: 导出CSV
  • [1] 谢国兵, 李超良, 蔡锦浩, 等. 激光测距机光轴平行性测试方法[J]. 电子测试, 2020(19): 48-51. https://www.cnki.com.cn/Article/CJFDTOTAL-WDZC202019017.htm

    XIE Guobing, LI Chaoliang, CAI Jinhao, et al. Test method for optical axis parallelism of laser rangefinder[J]. Electronic Testing, 2020(19): 48-51 https://www.cnki.com.cn/Article/CJFDTOTAL-WDZC202019017.htm

    [2] 贾文武, 刘培正, 唐自力, 等. 靶场适用的光电经纬仪光轴平行性检测[J]. 光学精密工程, 2020, 28(8): 1670-1677. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202008006.htm

    JIA Wenwu, LIU Peizheng, TANG Zili, et al. Detection of optical axis parallelism using photoelectric theodolites suitable for shooting ranges[J]. Optical Precision Engineering, 2020, 28(8): 1670-1677 https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202008006.htm

    [3] 杨雪, 陈文红, 张玺, 等. 宽光谱光电系统多光轴平行性工程化测试方法研究[J]. 激光与红外, 2019, 49(8): 978-982. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201908013.htm

    YANG Xue, CHEN Wenhong, ZHANG Xi, et al. Research on engineering testing method for multi axis parallelism of wide spectral optoelectronic systems [J]. Laser and Infrared, 2019, 49(8): 978-982 https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201908013.htm

    [4] 王瑶, 李岩, 付跃刚. 便携式可见光多光轴平行性校正系统[J]. 长春理工大学学报(自然科学版), 2019, 42(2): 65-68. https://www.cnki.com.cn/Article/CJFDTOTAL-CGJM201902015.htm

    WANG Yao, LI Yan, FU Yuegang. Portable visible light multi axis parallelism correction system[J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2019, 42(2): 65-68 https://www.cnki.com.cn/Article/CJFDTOTAL-CGJM201902015.htm

    [5] 赵玮, 昌明, 刘虎, 等. 空间旋转多光轴平行性校准技术[J]. 应用光学, 2018, 39(5): 627-632. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201805007.htm

    ZHAO Wei, CHANG Ming, LIU Hu, et al. Multi axis parallelism calibration technique for spatial rotation[J]. Applied Optics, 2018, 39(5): 627-632. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201805007.htm

    [6] 徐丹慧, 唐霞辉, 方国明, 等. 基于干涉条纹的光轴平行性校准方法[J]. 光学学报, 2020, 40(17): 129-136. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202017016.htm

    XU Danhui, TANG Xiahui, FANG Guoming, et al. A calibration method for optical axis parallelism based on interference fringes[J]. Journal of Optics, 2020, 40(17): 129-136 https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202017016.htm

    [7]

    ZOU Huihui, WU Hongbing, ZHOU Lujun. A testing method of optical axes parallelism of shipboard photoelectrical theodolite[J]. China Satellite Maritime Tracking and Control (China), 2016, 9684: 96841V-96841V-5.

    [8] 谢国兵, 薛永刚, 晁格平, 等. 基于LABVIEW的多光轴平行性测试方法[J]. 应用光学, 2018, 39(6): 856-861. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201806018.htm

    XIE Guobing, XUE Yonggang, CHAO Geping, et al. Multi axis parallelism testing method based on LABVIEW[J]. Applied Optics, 2018, 39(6): 856-861. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX201806018.htm

    [9] 应家驹, 陈玉丹, 武东生, 等. 双目光轴平行性检校仪检测精度分析[J]. 激光与红外, 2018, 48(6): 750-755. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201806016.htm

    YING Jiaju, CHEN Yudan, WU Dongsheng, et al. Analysis of testing accuracy of binocular optical axis parallelism calibration instrument[J]. Laser and Infrared, 2018, 48(6): 750-755. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201806016.htm

    [10] 崔启胤. 大间距光轴平行性检测方法研究[D]. 长春: 长春理工大学, 2018.

    CUI Qiyin. Research on the Detection Method of Large Distance Optical Axis Parallelism[D]. Changchun: Changchun University of Technology, 2018.

    [11] 王志强. 350 mm口径离轴反射式平行光管的设计[D]. 长春: 长春理工大学, 2020.

    WANG Zhiqiang. Design of 350 mm Off-axis Reflective Collimator[D]. Changchun: Changchun University of Technology, 2020.

    [12]

    YING Jiaju, CHEN Yudan, LIU Jie, et al. Design and realization of photoelectric instrument binocular optical axis parallelism calibration system[C]//Proc. Of on SPIE on Optical Measurement Technology and Instrumentation, 2016: 10155: 101550X.

    [13] 黄富瑜, 李刚, 史云胜, 等. 多光谱多光轴平行性检测方案设计与误差分析[J]. 光电工程, 2019, 46(2): 12-20. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201902002.htm

    HUANG Fuyu, LI Gang, SHI Yunsheng, et al. Design and error analysis of multi spectral and multi axis parallelism detection scheme[J]. Optoelectronic Engineering, 2019, 46(2): 12-20. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201902002.htm

  • 期刊类型引用(3)

    1. 邬苏秦,王府圣,周川鸿,朱卫纲,曲卫. 基于深度学习的毫米波雷达人体摔倒检测系统研究. 电子设计工程. 2024(02): 181-186 . 百度学术
    2. 丁玲,赵昆. 基于人体关键点识别的机器人舞姿模仿系统研究. 自动化与仪器仪表. 2024(06): 169-173 . 百度学术
    3. 王梦溪,李峻. 老年人跌倒检测技术研究综述. 计算机与现代化. 2024(08): 30-36 . 百度学术

    其他类型引用(1)

图(5)  /  表(7)
计量
  • 文章访问数:  123
  • HTML全文浏览量:  77
  • PDF下载量:  61
  • 被引次数: 4
出版历程
  • 收稿日期:  2023-07-25
  • 修回日期:  2023-08-07
  • 刊出日期:  2023-12-19

目录

/

返回文章
返回