Design of LWIR Continuous Zoom Optical System with Variable Diaphragm
-
摘要:
非制冷长波连续变焦光学系统由于相对孔径大导致小型化和无热化设计困难,本文采用可变光阑约束物镜尺寸压缩系统总长,实现长波640×512非制冷连续变焦光学系统轻小型化设计。通过材料合理配置及主动补偿实现5片透镜的8.5×连续变焦光学系统消热设计。该系统F#恒定1.2、工作波段为8~12 μm、视场变焦范围为30°×24°~3.5°×2.8°、系统总长187.5 mm,该连续变焦光学系统重量轻、总长短、透过率高、在-40℃~+60℃温度范围全视场成像质量良好。
Abstract:Miniaturization and athermalization design of uncooled long-wave infrared (LWIR) continuous zoom optical systems is difficult given the large relative aperture. The lightweight and miniaturization design of an LWIR continuous zoom optical system with an uncooled focal plane array detector for 640×512 pixels was realized by restraining the object lens size and total length of the system by using a variable diaphragm. Through reasonable material configuration and an active compensation method, the athermalization design of a continuous zoom optical system with a zoom ratio of 8.5 and five lenses was achieved. The system F number is constant at 1.2, the spectral range is 8 μm to 12 μm, the field of view (FOV) ranges from 30°×24° to 3.5°×2.8°, and the total length of the system is 187.5 mm. This optical system exhibits light weight, short total length, and high transmittance. Within the temperature range of -40℃ to +60℃, the optical system affords good image quality in the full field of view during zooming.
-
0. 引言
红外目标跟踪是指对红外视频中的目标进行检测和跟踪的技术,由于红外具有全天候监控的特征,其广泛应用于国防军事和民用方面,在国防军事上,如地海空目标监控和预警系统以及精确制导等,在民用上,如安防监控、人机交互和无人机对地面目标的跟踪等[1-4]。目标跟踪技术近年来受到了人们的广泛关注,也是当今计算机视觉领域最具挑战性的研究领域之一。在实际应用中,由于实际场景复杂,视频中目标的形变、光照变化、旋转、快速运动和遮挡等因素都会影响跟踪的准确度,提出一种实时、鲁棒性强、跟踪精度高的跟踪算法仍具有较大的难度,为解决上述因素的影响,近年来目标跟踪领域也出现了许多算法。目标跟踪算法根据表观模型可以分为两类:生成式和判别式模型。其中生成式模型主要是在视频图像中寻找与给定目标最相似的图像窗口,而判别式模型则是通过学习分类器来对图像进行目标和背景的二分类。
近年来在判别式跟踪算法中,由于相关滤波的跟踪算法具有高速和高效的特点,得到了人们的广泛关注和迅速的发展[5]。相关滤波算法最初用于信号处理领域中比较两个信号的相似度,随后Bolme等人[6]首次基于相关滤波提出了最小误差输出平方和跟踪算法(minimum output sum of squared error filter, MOSSE),利用傅里叶变换将时域上的卷积转换为频域上的点积,极大地减少了计算量,提高了目标跟踪速度,跟踪速度超过了600 fps,完全满足了实际应用中目标跟踪的实时性要求。由于该算法在目标跟踪上的优异表现,此后众多基于此算法框架的相关滤波改进算法相继被提出,其中最具代表性的有Henriques等人[7-8]提出的循环结构跟踪算法(circulant structure Kernel, CSK)以及在此基础上用方向梯度直方图(histogram of oriented gradient, HOG)特征替代CSK算法中灰度特征的核相关滤波跟踪算法(Kernel correlation filter, KCF),极大地提高了跟踪准确度。随后Danelljan等人[9-10]基于循环结构先后提出了判别尺度空间跟踪算法(discriminative scale space tracker, DSST)和快速判别尺度空间跟踪算法(fast discriminative scale space tracker, fDSST),能在快速跟踪目标的同时进行尺度更新,较好地解决了目标跟踪尺度变化的问题。
然而目标遮挡作为目标跟踪领域一种常见的情况,相关滤波跟踪算法无法有效的解决。由于相关滤波大多采用循环矩阵的方式,如果采用全图像搜索目标,则会极大地降低跟踪速度,无法满足实际应用的实时性要求,因此相关滤波的大部分算法均采用在目标附近的图像窗口内进行计算响应强度,但是在实际目标跟踪过程中,当目标被遮挡或出画面后再次进入画面时,目标很可能不会出现在之前的位置,这将会导致相关滤波跟踪算法无法有效地重新跟踪上目标。
针对以上情况,本文结合快速判别尺度空间滤波跟踪算法[10]和深度学习中的YOLO(you only look once)目标识别算法[11]进行改进并提出YOLO-fDSST跟踪算法(YfDSST),当目标跟踪丢失后,先采用YOLO算法快速检测出图像中的目标,随后利用fDSST算法在各检测出来的目标框内进行峰值响应强度计算,得到包含最大峰值响应强度且峰值大于经验阈值的目标框即为待跟踪的目标,利用该目标更新相关滤波模型并进行后续视频帧的跟踪。对比实验结果表明,本文改进的算法在满足实时性的情况下,能有效解决跟踪过程中目标被遮挡和出画面的情况,具有更高的鲁棒性和精确度。
1. 目标跟踪器
本文所提的跟踪器算法由跟踪模块和目标再检测模块构成,其中跟踪模块使用快速判别尺度空间滤波算法,其引入了融合方向梯度直方图(fusion of HOG, FHOG)特征[12]的,再检测模块使用基于深度学习的YOLO算法实现对目标位置和大小的快速检测。
1.1 快速判别尺度空间滤波器
fDSST采用了两个独立的相关滤波器,分别实现目标的位置跟踪和尺度变换,并分别定义为位置滤波器和尺度滤波器。在连续的两帧视频图像中,通常位置的变化大于尺度的变化,因此该算法先采用位置滤波器确定目标位置信息,在目标位置的基础上再使用尺度滤波器确定其尺度信息。
在位置滤波过程中,提取目标所在图像块的FHOG特征,并通过式(1)构造最优滤波器:
$$ E = \left\| {\sum\limits_{l = 1}^d {{\boldsymbol{h}^l}} \otimes {\boldsymbol{f}^l} - \boldsymbol{g}} \right\| + \lambda \sum\limits_{l = 1}^d {{{\left\| {{\boldsymbol{h}^l}} \right\|}^2}} $$ (1) 式中:hl、fl、g均为M×N的矩阵,其中M和N分别为图像块的高度和宽度大小,l表示特征维数且l∈{1, 2, …, d};λ为正则项系数;⊗代表循环相关。
由于循环相关的矩阵点积运算的计算量巨大,利用傅里叶变换可以将时域内的矩阵卷积运算转换为频域上的点积运算,从而极大地减少了计算量,加快了计算速度[7]。傅里叶变换后的最优相关滤波器如式(2)所示:
$$ {H^l} = \overline {G{F^l}} /\left( {\sum\limits_{k = 1}^d {\overline {{F^l}} {F^l}} + \lambda } \right) $$ (2) 式中:大写字母代表相应的离散傅里叶变换,上划线表示共轭,特征维数取值范围k∈{1, 2, …, d}。
在实际工程应用中,通常把相关滤波器Hl拆分成分子At和分母Bt的形式分别进行迭代更新操作,如式(3)所示:
$$ \left\{ {\begin{array}{*{20}{c}} {A_t^l = \left( {1 - \eta } \right)A_{t - 1}^l + \eta \overline {{G_t}} F_t^l} \\ {{B_t} = \left( {1 - \eta } \right){B_{t - 1}} + \eta \sum\limits_{k = 1}^d {\overline {F_l^k} F_l^k} } \end{array}} \right. $$ (3) 式中:η表示学习率。
对于新的一帧视频图像,利用相关滤波器和高斯函数构建相应的图像块的输出响应得分y,其中输出响应得分最高的地方则为当前视频帧的目标位置,如式(4)所示:
$$ y = {F^{ - 1}}\left\{ {\sum\limits_{l = 1}^d {\overline {{A^l}} {Z^l}} /\left( {B + \lambda } \right)} \right\} $$ (4) 在尺度滤波过程中,为了确定视频帧中目标的最佳尺度大小,跟踪算法采用了一个一维的相关滤波器去估计目标在图像中的尺度,假设在当前帧中目标大小为P×Q,尺度大小设置为S,在目标中心位置提取尺度等级为n的训练样本图像块Jn,并提取特征f作为图像块的d维特征描述子,其中图像块的大小为anP×anR,a表示尺度因子,尺度等级n的选取范围为n∈{[-(S-1)/2], …, [(S-1)/2]}。
1.2 目标再检测
相关滤波器进行目标跟踪的原理是以视频图像与滤波器模板作用后的输出响应最大的地方作为目标的位置,但是图像在进行每一次滤波的位置是上一帧中目标的位置,如果目标被遮挡或目标出画面导致目标跟踪丢失,当目标再次进入画面时,目标可能不会出现在丢失前的位置,而滤波器模板的滤波位置仍然停留在丢失前的位置,此时将无法跟踪重新进入画面的目标。由于相关滤波器一般会采用循环矩阵的方式来增加训练样本数量,如果使相关滤波器进行全图像搜索,则会导致计算量急剧上升使得跟踪速度无法满足实时性要求。为了能够在跟踪目标丢失后,能够重新找到目标并持续对其进行跟踪,有必要引入再检测机制。不同于传统的目标检测中针对每一帧视频都进行目标检测,在本文所提的再检测机制中,只有当图像块中目标的峰值响应强度低于经验阈值后,即目标跟踪丢失后才进行目标再检测,从而不会显著地影响跟踪速度。
由于目标再检测算法的准确度和速度会对目标跟踪准确度和速度造成较大影响,因此对目标再检测算法提出了较高的要求。本文的再检测机制采用的基于深度学习的YOLOv4算法[11]对目标进行检测,在目标检测的准确性和速度上均能较好的满足要求。
YOLOv4是YOLO系列最新的网络,其骨干网络主要CSPDarknet53构成,相对于其它骨干网络,CSPDarknet53具有参数量少和传输速度快的优势,并且在CSPDarknet53网络中采用了空间金字塔池化模块,能有效地改善感受野尺寸,在不降低网络处理速度的情况下将图像中最重要的上下位特征提取出来。同时YOLOv4网络还利用路径聚合网络(path aggregation network, PAN)对特征进行多通道融合,PAN网络的应用可以实现特征的重用、提高检测准确率以及降低计算瓶颈和减少内存开销。
网络训练过程中的损失函数如式(5)所示:
$$ \left\{ {\begin{array}{*{20}{l}} {{\text{Loss}} = {L_{xywh}} + {L_{{\text{confidence}}}} + {L_{{\text{classes}}}}} \\ \begin{array}{*{20}{l}} {L_{xywh}} = {\lambda _{{\text{coord}}}}\sum\limits_{i = 0}^{{S^2}} {\sum\limits_{j = 0}^B {1_{ij}^{{\text{obj}}}} } \left[ {{{\left( {{x_i} - {x_i}^\prime } \right)}^2} + {{\left( {{y_i} - {y_i}^\prime } \right)}^2}} \right] \hfill \\ \quad + {\lambda _{{\text{coord}}}}\sum\limits_{i = 0}^{{S^2}} {\sum\limits_{j = 0}^B {1_{ij}^{{\text{obj}}}} } \left[ {{{\left( {\sqrt {{w_i}} - \sqrt {{w_i}^\prime } } \right)}^2} + {{\left( {\sqrt {{h_i}} - \sqrt {{h_i}^\prime } } \right)}^2}} \right] \hfill \\ \end{array} \\ \begin{array}{*{20}{l}} {L_{{\text{confidence}}}} = - {\lambda _{{\text{obj}}}}\sum\limits_{i = 0}^{{S^2}} {\sum\limits_{j = 0}^B {1_{ij}^{{obj} }} } \left[ {{{c}'_i}\log \left( {{c_i}} \right) + \left( {1 - {c_i}^\prime } \right)\log \left( {1 - {c_i}} \right)} \right] \hfill \\ \quad - {\lambda _{{\text{noobj}}}}\sum\limits_{i = 0}^{{S^2}} {\sum\limits_{j = 0}^B {1_{ij}^{{\text{noobj}}}} } \left[ {{{c}'_i}\log \left( {{c_i}} \right) + \left( {1 - {{c}'_i}} \right)\log \left( {1 - {c_i}} \right)} \right] \hfill \\ \end{array} \\ {{L_{\rm{classes}}} = \sum\limits_{i = 0}^{{S^2}} {1_{ij}^{{\text{obj}}}} \sum\limits_{c \in {\text{classes}}} {\left[ {{{p}'_i}\left( c \right)\log \left( {{p_i}\left( c \right)} \right) + \left( {1 - {{p}'_i}\left( c \right)} \right)\log \left( {1 - {p_i}\left( c \right)} \right)} \right]} } \end{array}} \right. $$ (5) 式中:Lxywh为目标预测框与真实框的中心点和宽高误差之和;λcoord为坐标系数;Lconfidence为目标置信度误差,包含了格子中有物体和无物体的两项置信度误差;λobj和λnoobj分别为格子中有物体和无物体的置信度系数;Lclasses为目标分类损失;Iobjij表示为第i个格子的第j个锚框的匹配情况;ci表示第i个预测框的置信度;pi表示第i个预测框包含某类目标的概率。
在检测过程中,该算法将图片划分成S×S个网格,将每个格子作为先验锚框位置,并在格子内对物体置信度、类别置信度和位置偏移量进行拟合,最终经过非极大值抑制后得到目标的边界框坐标和类别信息。
1.3 跟踪流程
本文算法是在fDSST算法[10]的基础上引入目标再检测机制来实现目标跟踪的抗遮挡处理,首先利用fDSST对目标进行跟踪,当目标被遮挡或出画面时,当前视频帧中目标的峰值响应强度会低于经验阈值,此时停止相关滤波器模型更新并会启用目标再检测机制。
本文算法针对场景中存在一个或多个目标的情形均是适用的,如果场景中存在多个目标,目标再检测机制会在目标跟踪丢失后,在后续视频帧中检测出所有目标,从而得到所有目标的位置和大小信息,但是待跟踪的目标可能仅仅是检测出的所有目标中的一个,因此必须从所有被检测出来的目标中将待跟踪的目标筛选出来,在实际光电系统应用中,会进一步结合伺服系统返回的跟踪目标速度大小和方向信息,排除相似干扰目标的影响,提高目标重捕获的成功率。
针对检测出来的每一个目标,使用相关滤波器计算目标的峰值响应强度,选取峰值响应强度最大且大于经验阈值的目标即为待跟踪目标。如果最大峰值响应强度小于经验阈值,则说明在检测出来的目标中可能不包含待跟踪目标,则需要依据后续视频帧的检测结果继续进行筛选。
在筛选出待跟踪目标后,以式(3)对相关滤波器模型进行更新,并以经过相关滤波器筛选后的目标峰值响应强度位置初始化跟踪目标位置,考虑到目标在被遮挡或出画面后重新进入画面时,目标的尺寸大小可能会发生变化,因此需要依据检测目标的尺寸大小对跟踪目标进行尺度更新,更新方式如式(6)所示:
$$ \left\{ {\begin{array}{*{20}{c}} {{w_t} = \left( {1 - \beta } \right){w_{t - 1}} + \beta {w_{\text{b}}}} \\ {{h_t} = \left( {1 - \beta } \right){h_{t - 1}} + \beta {h_{\text{b}}}} \end{array}} \right. $$ (6) 式中:β为尺度更新的学习率;wb和hb分别为检测器检测到的目标宽高大小;wt-1和ht-1分别为前一帧中目标的宽高大小。在得到重新进入画面的目标后继续以fDSST算法对目标进行跟踪从而实现目标的抗遮挡处理。图 1为基于相关滤波的目标跟踪抗遮挡处理的流程图。
2. 实验结果与分析
实验中目标检测器的训练数据采用红外仿真软件获得超过7万张的红外图像,图像包含坦克、悍马、直升机、舰艇、战斗机、卡车和大巴车等在内的多个目标类别,人工标注后将数据按9:1的比例分成训练集和测试集两部分,并采用变学习率的方式在训练服务器上训练10万步后得到目标检测器模型。
目标跟踪测试视频采用红外仿真软件获得两段目标被完全遮挡又重新进入画面的视频并进行人工标注,视频帧数超过500帧,帧频为30 Hz,宽高为640×512像素。并在移植该跟踪算法到实际光电系统后,针对实际场景进行了两次在线测试,在线测试的视频采集帧率为40 Hz,图像大小为640×512像素。
2.1 实验环境与参数
考虑到实际嵌入式系统应用,测试采用C++语言,所用硬件采用NvidiaJetson TX2核心板,GPU为Pascal包含256颗CUDA核心,CPU为HMP Dual Denver 2和Quad ARM A57。显存和内存共享大小为8 GB的主存。相关滤波器学习率η为0.01,尺度更新学习率β为0.1,尺度因子a为1.04,峰值响应强度阈值为0.6。检测器训练时学习率采用变学习率策略,初始学习率为0.00025,在4万步和7万步时学习率缩小10倍。经过10万步迭代后损失降低到0.5左右并保持基本稳定。检测器的测试结果如表 1所示,测试时检测阈值为0.5,从表 1可以看出对所有的目标类型检测准确率和召回率均超过97%,在该跟踪算法中,检测器的检测阈值采用0.3,以提高目标检测召回率,从而提高跟踪目标丢失重捕获的成功率。
表 1 检测器测试结果Table 1. The test results of detectorTarget Image number Precision/% Recall/% Fighter 864 100 99.3 Helicopter 864 99.5 99.7 Patrol 864 100 99.8 Freighter 864 99.6 100 Bus 560 99.4 98.7 Hummer 560 99.3 98.7 Tank 560 97.7 97.3 Truck 560 99.6 98.7 2.2 性能评估方法
为评估本文所提算法在目标跟踪抗遮挡处理的性能,实验采用了距离精度(Distance Precision,DP)和成功率(success rate, SR)作为评估标准[13]。距离精度是在跟踪过程中,跟踪算法所跟踪的目标中心位置与人工标注的目标中心位置的欧氏距离小于某一距离阈值的视频帧数占整个视频中包含目标的视频帧数(剔除目标遮挡的帧数)的百分比。如果在相同的距离阈值下,距离精度越大则算法的跟踪效果越好。成功率则是指跟踪算法所跟踪的目标矩形框与人工标注的目标矩形框的交并比(intersection over union, IoU)大于某一IoU阈值的视频帧数占整个视频中包含目标的视频帧数的百分比。如果在相同的IoU阈值下,成功率越高则算法的跟踪效果越好。
2.3 抗遮挡处理性能比较
2.3.1 定性比较
图 2和图 3分别为在红外中波和长波下不同算法的跟踪结果,下面结合图 2和图 3对本文所提的算法进行分析。
从图 2中可以看出,针对中波红外波段,在目标未被遮挡之前,两种算法均能较好地跟踪目标,与实际目标位置偏差较小。但是在目标被部分遮挡时,fDSST算法仍然在更新滤波器模型,导致滤波器模型加入较多的背景信息,从而在第333帧视频图像之后,当目标重新进入画面并运动时,该算法的目标框仍然停留在之前更新学习的图像背景位置,即图 2(c)中虚线目标框所示,无法有效实现目标的抗遮挡处理。而本文所提算法在目标被部分遮挡时,能及时地停止更新相关滤波器模型,以及在目标重新进入画面后的短时间内,准确地重捕获目标并具有较高的时效性,如图 2(c)中实线目标框所示,并在后续视频帧中稳定准确地对目标持续跟踪。在图 3的长波红外波段下,同样可以看出fDSST跟踪算法无法有效地对红外目标在完全被遮挡后进行重捕获,而本文所提算法能有效、快速地对长波红外目标在被遮挡后进行再检测跟踪,实现目标的持续稳定跟踪。
通过以上分析可知本文所提算法针对红外目标,能在目标被遮挡时及时停止更新相关滤波器模型,避免模型带入背景噪声,并在引入再检测机制后,能快速准确地对跟踪目标进行再捕获,并实现持续稳定跟踪。
2.3.2 定量比较
由于距离精度和成功率是跟踪算法中广泛使用的评估标准,因此本实验选用这两个标准来评估算法的整体性能[13]。
图 4分别是中波和长波红外下,不同算法的距离精度随目标中心位置偏差阈值变化的实验结果。从图中可以看出本文算法在中波和长波红外下的距离精度均值分别为82%和71%,相比于fDSST算法分别提高了61%和36%,在中心位置偏差阈值为10个像素时,本文算法在中波和长波红外下的距离精度分别达到了90%和75%,明显优于相同阈值下fDSST算法的距离精度。
图 5分别是中波和长波红外下,不同算法的跟踪成功率随交并比阈值变化的实验结果。在交并比阈值为0.5的情况下,本文算法的成功率在中波和长波红外下分别达到了89%和75%,分别比fDSST算法高出了66%和34%,并且平均成功率无论是在中波红外还是长波红外情况下均明显优于fDSST算法。
综上实验结果可知,本文在针对红外目标跟踪的抗遮挡处理时,基于相关滤波引入目标再检测机制能够较好地提高跟踪效果,并能很好对解决目标被全部遮挡的问题。
在跟踪效率上,表 2为跟踪算法运行速度的对比结果,从对比结果中可以看出,本文提出的算法与fDSST算法在运行速度上相差不大,均在100 fps左右,具有较高的运行效率,能够完全满足嵌入式系统中实时跟踪的需求。
表 2 跟踪算法运行速度对比Table 2. Running speed comparison of tracking algorithmsAlgorithm Frames Per Second fDSST 105 Ours 94 2.3.3 在线测试
在基于仿真视频针对跟踪算法进行相关性能测试的同时,也将跟踪算法移植到实际光电转塔中,并基于光电转塔,在两个实际场景中对跟踪算法进行了在线测试。
在在线测试场景一中,正常被跟踪的目标车辆在第42帧被广告牌遮挡后跟踪丢失,并在第44帧重新出现在画面中,从图 6中可以看出,在第44帧中目标被光电转塔重新捕获跟踪。在第42帧和第43帧的画面中,目标车辆跟踪丢失后,画面中存在其它干扰车辆,然而跟踪器并未重捕获其它干扰目标车辆,而是保持目标跟踪丢失状态直到真实目标出现并重捕获。
在在线测试场景二中,跟踪的部分结果如图 7所示,在第74帧及以前,虽然画面中存在着较多其它车辆,但是目标车辆仍被较好地持续跟踪,在第76帧时,目标开始被树木遮挡,并持续遮挡至第79帧,在被遮挡期间,跟踪器处于目标丢失状态,从画面中可以看出,目标跟踪丢失期间,场景中存在较多的其它车辆甚至是极为相似的车辆,但是跟踪器并未重捕获至其它干扰车辆造成误跟踪情况。从图 7中可以看出在第81帧目标车辆重新出现在画面后跟踪器迅速对目标进行重捕获并进行持续准确的实时跟踪。
综上基于光电转塔的在线测试结果可以看出,在实际场景存在多个目标的情况下,当跟踪目标被遮挡导致跟踪丢失后,跟踪器能较好地避免重捕获其它相似目标而导致误跟踪,并在真实目标重新出现在画面中时迅速对其进行重捕获并持续、准确地进行实时跟踪。
3. 结论
针对相关滤波跟踪器在红外目标被遮挡时无法有效持续跟踪目标的问题,本文在快速判别尺度空间滤波器跟踪器算法的基础上引入基于深度学习的目标再检测机制,提出了一种红外目标跟踪抗遮挡处理的跟踪算法,在通过大量的红外图像数据集对目标检测器进行训练后,该算法在目标被遮挡后又重新进入画面时,能够快速准确地对目标进行重捕获并进行持续跟踪。相比与原始的fDSST算法,本文算法在中波和长波红外下的距离精度和跟踪成功率均有较大地提升,在具有较好的跟踪准确度的同时具有较高的跟踪速率,能满足嵌入式系统中实时跟踪的要求,具有一定的实际应用价值。尽管提出的方法在红外目标跟踪上取得了良好的跟踪效果,但是还需要在更加复杂实际红外场景中进行测试和改进。
-
表 1 探测器参数
Table 1 Parameters of detector
Detector VOx Array scale 640×512 Pixel size/μm 12 NETD/mK ≤40 Spectral response/μm 45518 Thermal response/ms 10 Working temperature/℃ -40 to 80 表 2 光学系统设计指标
Table 2 Parameters of optical system design
Working waveband/μm 8 to 12 Zoom ratio 8.5:1 Field of view/° 30×24 to 3.5×2.8 F# 1.2 Focal length/mm 14.3 to 125 Transmittance/% > 72 Working temperature/℃ -40 to 60 表 3 光学系统间隔初始参数
Table 3 Parameters of the optical system
mm Focal length 125 95.67 50.84 24.3 13 f1′/f2′ spacing 78.5 73.97 60.4 37.74 10.6 f2′/f3′ spacing 12.08 20.95 42.8 72.52 104 f3′/f4′ spacing 37.58 33.24 24.9 17.9 13.6 -
[1] 吴海清, 王朋. 小型化大面阵非制冷红外连续变焦光学系统设计[J]. 红外, 2020, 41(2): 1-6. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI202002001.htm WU Haiqing, WANG Peng. Design of miniaturized large-format uncooled infrared continuous zoom optical system[J]. Infrared, 2020, 41(2): 1-6. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI202002001.htm
[2] 唐玉凤, 毛珊, 宋逸辰, 等. 非制冷长波红外连续变焦光学系统的一种无热化设计[J]. 光学学报, 2024, 44(7): 0722002. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202407015.htm TANG Yufeng, MAO Shan, SONG Yichen, et al. Athermalization design of uncooled long waveband infrared continuous zoom optical system[J]. Acta Optica Sinica, 2024, 44(7): 0722002. https://www.cnki.com.cn/Article/CJFDTOTAL-GXXB202407015.htm
[3] 陶郅, 王敏, 肖维军. 20倍非制冷长波红外连续变焦光学系统设计[J]. 红外, 2017, 38(5): 19-26. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI201705004.htm TAO Zhi, WANG Min, XIAO Weijun. Design of a 20×uncooled thermal long wavelength infrared continuous zoom optical system[J]. Infrared, 2017, 38(5): 19-26. https://www.cnki.com.cn/Article/CJFDTOTAL-HWAI201705004.htm
[4] 杜玉楠, 牟达, 刘莹莹, 等. 20×长波红外变焦光学系统设计[J]. 红外技术, 2013, 35(10): 607-611. DOI: 10.11846/j.issn.1001_8891.201310002 DU Yunan, MOU Da, LIU Yingying, et al. Design of 20× long wavelength infrared zoom optical system[J]. Infrared Technology, 2013, 35(10): 607-611. DOI: 10.11846/j.issn.1001_8891.201310002
[5] 包佳祺, 吉紫娟, 葛振杰, 等. 高分辨率长波红外连续变焦光学系统设计[J]. 光电工程, 2014, 41(2): 75-80. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201402013.htm BAO Jiaqi, JI Zijuan, GE Zhenjie, et al. Design of a long wave infrared continuous zoom optical system with high resolution[J]. Opto-Electronic Engineering, 2014, 41(2): 75-80. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201402013.htm
[6] 吴凡, 李森森. 高分辨率红外变焦光学系统设计[J]. 光电技术应用, 2017, 32(5): 1-4. https://www.cnki.com.cn/Article/CJFDTOTAL-GDYG201705002.htm WU Fan, LI Sensen. Design of infrared continuous zoom optical system with high resolution[J]. Electro-Optic Technology Application, 2017, 32(5): 1-4. https://www.cnki.com.cn/Article/CJFDTOTAL-GDYG201705002.htm
[7] 孙浩, 高益, 邓岩. 三组联动长波连续变焦红外光学系统[J]. 激光与红外, 2022, 52(8): 1199-1203. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW202208015.htm SUN Hao, GAO Yi, DENG Yan, et al. Longwave infrared optical system based on three groups of linkage continuous zoom[J]. Laser & Infrared, 2022, 52(8): 1199-1203. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW202208015.htm
[8] 张以谟. 应用光学[M]. 北京: 电子工业出版社, 2008: 640. ZHANG Yimo. Applied Optical[M]. Beijing: Publishing House of Electronics Industry, 2008: 640.
[9] 贾星蕊, 李训牛, 王海洋, 等. 大变倍比长波红外连续变焦光学系统设计[J]. 红外技术, 2012, 34(8): 463-466. http://hwjs.nvir.cn/cn/article/id/hwjs201208009 JIA Xingrui, LI Xunniu, WANG Haiyang, et al. Design of a LWIR continuous zooming optic system with large zooming range[J]. Infrared Technology, 2012, 34(8): 463-466. http://hwjs.nvir.cn/cn/article/id/hwjs201208009
[10] 宋菲君, 陈笑, 刘畅. 近代光学系统设计概论[M]. 北京: 科学出版社, 2019: 11. SONG Feijun, CHEN Xiao, LIU Chang. Introduction to Modern Optical System Design[M]. Beijing: Science Press, 2019: 11.
[11] 安连生. 应用光学[M]. 北京: 北京理工大学出版社, 2002: 166. AN Liansheng. Applied Optical[M]. Beijing: Beijing Institute of Technology Press, 2002: 166.
[12] 张发平, 张华卫. 基于二元衍射面的长波无热化光学系统设计[J]. 红外技术, 2020, 42(1): 25-29. http://hwjs.nvir.cn/cn/article/id/hwjs202001004 ZHANG Faping, ZHANG Huawei. Design of long-wave athermal optical system based on binary diffractions surface[J]. Infrared Technology, 2020, 42(1): 25-29. http://hwjs.nvir.cn/cn/article/id/hwjs202001004
[13] LIANG Kunyao, WANG Bowen, ZUO Chao. Super resolution imaging based on circular coded aperture[C]//Proc. SPIE, Computational Imaging Ⅶ, 2023: 125230G, Doi: 10.1117/12.2664916.
-
期刊类型引用(6)
1. 陈健,鲁长春. 考虑遮挡的视频图像运动目标激光跟踪定位方法. 现代电子技术. 2025(03): 76-80 . 百度学术
2. 程鑫,黄鹂,明德烈. 基于核相关滤波的深空目标跟踪算法. 计算机与数字工程. 2024(10): 2967-2971+2983 . 百度学术
3. 吴捷,段艳艳,马小虎. 基于KL散度与通道选择的热红外目标跟踪算法. 红外技术. 2023(01): 33-39 . 本站查看
4. 吴捷,马小虎. 基于特征融合与通道感知的无人机红外目标跟踪算法. 激光与红外. 2023(04): 626-632 . 百度学术
5. 吴捷,马小虎. 融合判别性与细粒度特征的抗遮挡红外目标跟踪算法. 红外技术. 2022(11): 1139-1145 . 本站查看
6. 杨擎宇,王永让,李昊,唐善军,李芳,张国华. 一种自适应红外目标尺寸变化的检测跟踪算法. 红外技术. 2022(11): 1176-1185 . 本站查看
其他类型引用(4)