光学被动热补偿方式实现红外与可见光图像融合物镜设计

孙爱平, 郭亮, 杨绍明, 龚杨云, 浦恩昌, 雷旭峰, 李泽民, 汪陈跃

孙爱平, 郭亮, 杨绍明, 龚杨云, 浦恩昌, 雷旭峰, 李泽民, 汪陈跃. 光学被动热补偿方式实现红外与可见光图像融合物镜设计[J]. 红外技术, 2020, 42(11): 1028-1036.
引用本文: 孙爱平, 郭亮, 杨绍明, 龚杨云, 浦恩昌, 雷旭峰, 李泽民, 汪陈跃. 光学被动热补偿方式实现红外与可见光图像融合物镜设计[J]. 红外技术, 2020, 42(11): 1028-1036.
SUN Aiping, GUO Liang, YANG Shaoming, GONG Yangyun, PU Enchang, LEI Xufeng, LI Zemin, WANG Chenyue. Design of Objective Lens for Infrared and Visible Image Fusion by Optical Passive Thermal Compensation[J]. Infrared Technology , 2020, 42(11): 1028-1036.
Citation: SUN Aiping, GUO Liang, YANG Shaoming, GONG Yangyun, PU Enchang, LEI Xufeng, LI Zemin, WANG Chenyue. Design of Objective Lens for Infrared and Visible Image Fusion by Optical Passive Thermal Compensation[J]. Infrared Technology , 2020, 42(11): 1028-1036.

光学被动热补偿方式实现红外与可见光图像融合物镜设计

详细信息
    作者简介:

    孙爱平(1980-),男,硕士,高级工程师,研究方向:红外整机系统设计及光学系统设计。E-mail:50973525@qq.com

  • 中图分类号: TN216, TN223

Design of Objective Lens for Infrared and Visible Image Fusion by Optical Passive Thermal Compensation

  • 摘要: 图像融合的配准精度是关系到图像融合质量的一个重要性能指标。本文所述的红外与可见光图像融合物镜系统采取平行光路布局、光学被动热补偿的方式提高图像融合的配准精度。本文首先分析对比了机械热补偿方式与光学热补偿方式对提高图像配准精度的贡献;其次根据图像融合物镜系统的性能指标对红外物镜和可见光物镜进行光学被动热补偿的优化设计,并分析了对可见光物镜进行光学被动热补偿设计的必要性;第三从光学布局型式及畸变变化来分析图像融合物镜系统的图像配准精度;最后根据图像融合物镜系统的成像质量和图像配准效果,可得出融合图像质量好、能满足指标要求的结论。
    Abstract: The registration accuracy of image fusion is an important performance index that is related to the quality of image fusion. The infrared and visible image fusion objective optical system in this study adopts a parallel optical path layout and an optical passive thermal compensation method to improve the registration accuracy of image fusion. First, the contributions of mechanical thermal compensation and optical thermal compensation are analyzed and compared to improve the image registration accuracy. Second, according to the performance index of the image fusion objective system, the optical passive thermal compensation designs of the infrared objective and visible objective are optimized. Moreover, the necessity of optical passive thermal compensation design of the visible objective is analyzed. Finally, according to the imaging quality and image registration effect of the image fusion objective system, it is concluded that the quality of the fused image is high and that the requirements of the index can be achieved.
  • 在目标检测领域中,红外弱小目标检测一直都是一个重要的研究热点。红外探测系统具有隐蔽性能好、灵敏度高、探测作用距离远、穿透大气能力强、工作环境适应性强等优点。红外弱小目标的检测作为红外探测系统的一项关键技术在军事预警、红外制导、航空航天、海事搜救以及民用安全等领域均具有重要的研究价值[1-4]。目前针对红外弱小目标检测的方法大致分为3类:空间域的方法、变换域的方法、神经网络或深度学习的方法[5]

    基于空间域的方法通过对图像进行滤波处理,实现背景噪声的抑制。常见的算法有最大均值滤波、最大中值滤波、形态学滤波[6]、匹配滤波等。汪列兵等在2020年提出一种基于最大中值滤波与Hough变换的检测方法[7];韩金辉等在2021年提出一种基于局部对比度机制的匹配滤波方法[8]。此类基于空间域的方法工程实现简单,但是在复杂背景下难以达到检测目标的需求。基于变换域的方法可以提高目标信噪比,有效保留目标图像中的边缘等信息。常见的算法有高通滤波、小波变换[9]等。冯祥等在2020年提出一种基于小波包变换的检测方法[10];李德新等在2021年提出一种利用DFT(Discrete Fourier Transform)变换并联合高斯滤波计算红外图像差异直方图的方法[11]。此类基于变换域的方法在平缓背景下目标检测效果较好,但在背景起伏比较大的复杂背景下检测目标效果差,难以达到检测实际需求。

    然而,以上基于空间域和变换域的目标检测方法往往通过人工设计提取特征,需要结合大量的专业知识和经验,难以一次做到全面考虑。其次,不同的特征提取算法往往只注重某一方面的信息,同时缺乏高层语义信息,这对简单背景目标场景下的目标检测能发挥一定的作用,但当红外弱小目标处于复杂背景下时,以上检测方法效果并不理想。尽管可以通过不同的特征提取算法进行约束构建组合特征,一定程度上能够提升对目标特征的表达能力,但这会导致系统的计算量增大。

    而基于神经网络或深度学习的方法拥有强大特征提取能力,且无需大量的人为特征提取的设计,能有效解决人工设计提取特征带来的局限性,提高目标检测性能,达到较高的检测准确率。当前主流用在复杂背景下红外弱小目标检测的神经网络方法分为两类。一类是双阶段目标检测算法:主要包括由Girshick等人在2014年提出的R-CNN(Region-CNN)算法[12];Girshick R在2015年提出的Fast R-CNN算法[13];以及2016年由Ren S提出的Faster R-CNN算法[14]。双阶段目标检测算法是基于区域候选的目标检测方法,分为候选区域预测和候选区域鉴别两个部分,这大大增加了目标检测的准确率,但带来的问题是计算量过大,导致其实时性差。另一类是单阶段目标检测算法:主要包括由Redmon等在2016年提出的YOLO算法,能够将目标检测的分类和定位用一个神经网络实现[15]。Liu W等在2016年提出的SSD算法[16],其增加的多尺度特征提取一定程度上解决了YOLO算法对小目标检测不敏感的问题。而经过不断的发展与改进,2020年YOLOv5算法被提出,该算法不仅继承以前系列算法的优势,同时极大简化了模型,在保证高准确率的同时提高检测速度,引领着目标检测领域潮流。针对红外弱小目标的检测需要较高检测准确率和检测速度的实际情况,本文在YOLOv5算法上改进,并最终从模型训练结果和目标检测结果的角度评估算法和模型的正确性。

    YOLOv5网络模型主要分为以下4个模块:输入端Input、主干网络Backbone、Neck网络和预测端Prediction[17]。输入端Input包括Mosaic数据增强、图片尺寸缩放和自适应锚框计算[17]。主干网络Backbone包括Focus处理、CBL处理、CSP结构和SPP空间金字塔池化等。具体如图 1所示。

    图  1  YOLOv5网络模型
    Figure  1.  YOLOv5 network model

    1)Mosaic数据增强

    Mosaic数据增强针对训练集的数据进行处理,随机选取4张训练集的图片进行随机缩放、随机排布以及随机裁剪,最后进行图像的拼接[16]。以此丰富训练集数据,加强算法泛化能力,适用于本文红外弱小目标的检测。

    2)图片尺寸缩放

    YOLO算法都需要将输入图像尺寸变换成固定大小。而YOLOv5算法自适应地对图像两端添加最少的黑边,以此将输入图像的尺寸变换成固定的大小,再送入神经网络模型中训练。这种处理方法能有效解决填充过多导致图像信息冗余,影响推理速度的问题。

    3)自适应锚框计算

    在神经网络开始训练前,需要设定初始的锚框。YOLOv5算法自适应地设定初始锚框,在此基础上输出预测框,并与真实框进行比较,根据两者差值进行反向更新,进而调整网络参数,降低损失函数。

    1)Focus处理

    Focus处理为切片操作,目的是为了使特征图在每一个特征信息没有变化的前提下增加图像的特征数。假设原始输入图像为608×608×3。通过切片操作,变成304×304×12的特征图。最后经过一次32个卷积核的卷积操作,变成304×304×32的特征图。

    2)CBL层

    Focus处理后的图像经过CBL层,即先经过卷积层得到输入的不同特征。然后经过BN层,对所有的批处理数据进行规范化,实现结果的归一化。最后使用激活函数leaky_relu[18]处理结果到下一层的卷积中。

    3)CSP结构

    在YOLOv5中使用了两种CSP结构。主干网络Backbone使用CSP1_X结构,Neck网络使用CSP2_X结构[19]。其中的X表示残差组件个数。以此使得算法轻量化,在减少计算量的同时又能够提高模型的学习能力[19]

    4)SPP空间金字塔池化

    空间金字塔池化操作由3部分组成:conv、maxpooling和concat。首先进行卷积操作提取特征输出,然后经过3个不同核大小的最大池化层进行下采样,之后将各自输出结果进行拼接融合并将其与初始特征相加,最后经过卷积操作将输出恢复到同初始输入一致[17]。SPP层不仅大大增加了感受野,可以分离出上下文的重要特征,而且对推理速度又几乎无影响[20]

    Neck网络采用FPN(Feature Pyramid Networks)结合PAN(Path Aggregation Network)的结构,作为网络的融合部分。采用自顶向下的FPN结构,以及自底向上的两个PAN结构的特征金字塔[21]。其主要用来将提取出特征进行混合组合,并传递到预测层,加强网络特征融合的能力。Neck网络结构如图 2所示。

    图  2  Neck网络结构
    Figure  2.  Neck network structure

    YOLOv5采用GIOU_Loss作为损失函数,同时通过非极大值抑制NMS来筛选目标框[22]

    图 3所示,实线框A表示目标真实框,虚线框B表示预测框,M表示两个框之间的交集,N表示两个框之间的并集,而交并比IOU为交集与并集之比。则IOU计算公式如下:

    $$ \mathrm{IOU}=\frac{A \cap B}{A \cup B}=\frac{{\mathit{\boldsymbol{M}}}}{{\mathit{\boldsymbol{N}}}} $$ (1)
    图  3  IOU示意图
    Figure  3.  IOU schematic diagram

    图 4所示,设A目标真实框、B预测框的最小外接矩形为CDC与并集N的差集,则GIOU(Generalized Intersection Over Union)计算公式如下:

    $$ \mathrm{GIOU}=\mathrm{IOU}-\frac{|{\mathit{\boldsymbol{C}}}-{\mathit{\boldsymbol{N}}}|}{{\mathit{\boldsymbol{C}}}}=\mathrm{IOU}-\frac{{\mathit{\boldsymbol{D}}}}{{\mathit{\boldsymbol{C}}}} $$ (2)
    图  4  GIOU示意图
    Figure  4.  GIOU schematic diagram

    而作为损失函数即:

    $$ \text { GIOU_Loss }=1-\left(\frac{\mathit{\boldsymbol{M}}}{\mathit{\boldsymbol{N}}}-\frac{\mathit{\boldsymbol{D}}}{\mathit{\boldsymbol{C}}}\right) $$ (3)

    图 5所示,针对红外弱小目标的检测需要较高检测准确率和检测速度的实际情况,本文以YOLOv5算法为基础,在此基础上进行改进,在构建的YOLOv5神经网络模型主干网络Backbone中添加注意力机制提高模型的特征提取能力和检测效率。改进预测端Prediction中的损失函数和预测框筛选方法,提高红外弱小目标检测准确率。

    图  5  改进YOLOv5目标检测算法
    Figure  5.  Improved YOLOv5 target detection algorithm

    在YOLOv5目标检测网络模型中添加注意力机制是为了提高模型的特征提取能力和检测精度,根据红外弱小目标较小的特点,进一步的优化特征融合层以及多尺度检测层的特征尺度,使得训练出来的检测模型能够更好地适应小目标的检测,同时提高模型的检测速度。

    本改进算法添加注意力机制SE模块,该模块操作分为3个阶段:首先对输入特征图(h, w, c)进行全局池化,池化的尺寸为(h, w),输出(1×1×c)大小的特征图;随后经过两个全连接层,分别为c/12个神经元以及c个神经元以增加非线性因子;最后经过Sigmoid激活函数输出(1×1×c)大小的权重因子,利用该权重因子对原始特征图(h, w, c)各通道进行乘积,最终能够输出不同比重通道的特征图。具体如图 6所示。

    图  6  注意力机制SE模块
    Figure  6.  Attention mechanism SE module

    图 7所示,GIOU_Loss算法虽然解决了两个框没有交集的情况下无法反应两个框距离的远近的问题,但当预测框在目标真实框内时,无法判别预测框的位置[23]。其中实线框A表示目标真实框,虚线框B表示预测框。

    图  7  GIOU无法识别预测框位置图
    Figure  7.  GIOU cannot identify the prediction box location map

    因此本文改用CIOU_Loss(Complete Intersection Over Union_Loss)算法。该损失函数不仅考虑两个框距离远近的问题,而且考虑框的宽高比信息,可以有效解决GIOU_Loss算法存在的问题。具体计算方法如下。

    图 8所示,设最小外接矩形C的对角线为RA目标真实框和B预测框中心点距离为r,则CIOU-Loss计算公式如下:

    $$ {\rm{CIOU}} = {\rm{IOU}} - \frac{{{R^2}}}{{{r^2}}} - \frac{{{v^2}}}{{(1 - {\rm{IOU}}) + v}} $$ (4)
    $$ \begin{array}{l} {\rm{CIOU\_Loss = 1}} - {\rm{CIOU}}\\ = 1 - {\rm{IOU + }}\left( {\frac{{{R^2}}}{{{r^2}}} + \frac{{{v^2}}}{{(1 - {\rm{IOU}}) + v}}} \right) \end{array} $$ (5)
    图  8  CIOU示意图
    Figure  8.  CIOU schematic diagram

    式中:v是表征目标预测框长宽比一致性的参数,计算公式如下:

    $$ v = \frac{4}{{{{\rm{ \mathsf{ π} }}^2}}}{\left( {\arctan \frac{{{w^{{\rm{gt}}}}}}{{{h^{{\rm{gt}}}}}} - \arctan \frac{{{w^{\rm{p}}}}}{{{h^{\rm{p}}}}}} \right)^2}$$ (6)

    式中:wgthgt表示目标真实框的宽和高;wphp表示预测框的宽和高[24]

    在YOLOv5算法中采用普通的NMS的方式,该方式利用交并比IOU抑制冗余的预测框。重叠区域为唯一判断因素,导致遮挡情况下会存在错误抑制。而在本文中所采用的DIOU_NMS(Distance Intersection Over Union_Non Maximum Suppression)非极大值抑制,将DIOU作为抑制的准则,不仅考虑重叠区域的影响,而且考虑两个框的中心距离信息,可以提高重叠和被遮挡目标检测精度,使得预测结果更加合理和准确。

    训练集图像采用labelimg工具进行标注,共使用7组不同复杂背景下的数据进行实验,训练集、验证集、测试集划分比例为7:2:1。具体实验数据集划分如表 1所示。

    表  1  红外图像数据划分
    Table  1.  Infrared image data segmentation
    Dataset Total Training set Validation set Test set
    data1 400 280 80 40
    data2 400 280 80 40
    data3 500 350 100 50
    data4 500 350 100 50
    data5 600 420 120 60
    data6 600 420 120 60
    data7 600 420 120 60
    下载: 导出CSV 
    | 显示表格

    训练集数据标注如图 9所示。

    图  9  训练数据集标注
    Figure  9.  Training data set annotation

    为了能够验证算法的有效性,采用红外弱小目标数据集7组分辨率为256×256像素的红外弱小目标图像。data1是近距离,单个目标,空地交界背景下目标图像数据集。data2是近距离,两个目标,天空背景下,交叉飞行的目标图像数据集。data3是目标由远及近,单个目标,地面背景为林地的目标图像数据集。data4是目标由近及远,单个目标,地面背景为林地的目标图像数据集。data5是单个目标,目标机动,地面背景为森林的目标图像数据集。data6是目标由远及近,单个目标,目标机动,地面背景为森林的目标图像数据集。data7是单个目标,目标机动,地面背景为山丘的目标图像数据集。

    本实验在深度学习框架Pytorch上搭载,在ubuntu16.04上运行,具体配置如表 2所示。

    表  2  训练环境配置
    Table  2.  Training environment configuration
    Parameters Configuration
    Operating system ubuntu16.04
    Video memory 8G
    RAM 8G
    GPU NVIDIA GeForce GTX 1050 Ti
    GPU acceleration environment Training framework CUDA10.1
    Pytorch
    下载: 导出CSV 
    | 显示表格

    本实验采用YOLOv5s模型进行训练,训练批次batch size设置为8,训练权重采用Yolov5s.pt,训练轮次为50,具体配置如表 3所示。

    表  3  训练参数配置
    Table  3.  Training parameters configuration
    Parameters Configuration
    Model YOLOv5s
    Training rounds 50
    Batch size 8
    Weights Yolov5s.pt
    下载: 导出CSV 
    | 显示表格

    本实验评价指标采用准确率、召回率和平均精度均值来衡量,即分别为Precision、Recall、mAP(mean average precision)。其中Precision和Recall计算公式如(7)和(8)所示:

    $$ \text { Precision }=\frac{\text { TP }}{\text{TP}+\text{FP}} $$ (7)
    $$ \text { Recall }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} $$ (8)

    式中:TP表示目标为真实目标,检测结果为真实目标;FP表示目标不是真实目标,检测结果不是真实目标;FN表示目标为真实目标,检测结果为不是真实目标。则本文的Precision表示在检测出为红外弱小目标的样本中有多少是真正的红外弱小目标,反映了检测结果是否准确的问题。Recall表示在全部的红外弱小目标图像样本中,有多少红外弱小目标被正确检测出,反映了红外弱小目标是否齐全的问题。精度均值AP为以准确率Precision和召回率Recall所围成的曲线面积值。mAP为学习的所有类别精度均值的平均值。mAP@0.5表示将交并比IOU设为0.5时,计算每一类的所有图像数据集的AP,然后所有类别求平均的值。

    训练出模型准确率、召回率和平均精度均值如图 10图 11图 12所示。从图 10图 11可以看出,在训练大约20个epoch之后,目标检测准确率和召回率趋于稳定。而此时从图 12可以看出,由目标检测准确率和召回率决定的平均精度均值也趋于稳定,验证了算法模型的准确性。同时训练过程中的损失函数迭代过程如图 13所示。可以看到在大约25个epoch之后,损失函数CIOU_Loss降低到0.05以下,验证了算法模型收敛的快速性。

    图  10  目标检测准确率
    Figure  10.  Target detection accuracy
    图  11  目标检测召回率
    Figure  11.  Target detection recall
    图  12  平均精度均值(mAP@0.5)
    Figure  12.  Mean average precision (mAP@0.5)
    图  13  损失函数CIOU_Loss
    Figure  13.  The loss function CIOU_Loss

    同时为了检验训练出目标检测模型的性能,实验对比了SSD(Single Shot MultiBox Detector,SSD)、Faster R-CNN、YOLOv3和YOLOv5等算法,采用mAP作为评价指标,同时记录目标检测模型的检测速度,对比结果如表 4所示。

    表  4  算法模型结果对比
    Table  4.  Comparison of 5 model results
    Parameters mAP Time/s
    SSD 78.88% 5.80
    Faster R-CNN 90.33% 4.89
    YOLOv3 97.55% 2.47
    YOLOv5
    Improved YOLOv5
    98.76%
    99.65%
    1.25
    0.82
    下载: 导出CSV 
    | 显示表格

    表 4可以看出,本文改进YOLOv5算法的mAP值达到了99.65%,相较于SSD、Faster R-CNN、YOLOv3、YOLOv5算法分别提高了20.77%、9.32%、2.1%、0.89%。SSD由于利用多层的特征图作为结果输出,导致网络层数加深,弱小目标特征弱化,不利于弱小目标的检测。Faster R-CNN由于进行多次下采样操作,导致无法对小目标进行有效的特征提取。YOLOv3和YOLOv5相较于前两种方法,mAP有了明显的提升,改进YOLOv5则在YOLOv3和YOLOv5的基础上mAP值仍有提高,且目标检测模型检测每帧图片时间更短,相对于YOLOv3和YOLOv5检测准确率有明显提升,检测时间明显缩短。

    为测试本文改进YOLOv5算法检测弱小目标的性能,实验对比了本文改进YOLOv5算法和SSD、Faster R-CNN、YOLOv3、YOLOv5算法训练出模型在7组数据集测试中的结果,具体如图 14所示。

    图  14  测试集检测结果
    Figure  14.  Test set detection results

    图 14检测结果可以看到,SSD算法训练出来模型存在较大的漏警率,能够检测出空地交接背景和天空背景等背景较为单一场景下的红外弱小目标,但对森林和山丘等较为复杂背景下的红外弱小目标并不能检测出来。Faster R-CNN算法因为采用多次下采样的操作的原因,导致对小目标特征无法进行有效提取,训练出来模型存在虚警和漏警情况,且检测出虚警目标置信度较高。而YOLOv3和YOLOv5算法训练出来模型性能相较于SSD和Faster R-CNN算法有所改进,但同样存在虚警和漏警情况。而本文改进YOLOv5算法训练出来模型在7组复杂背景下的红外弱小目标均能被有效识别出来,且准确率高,虚警率低,训练出模型检测判定为红外弱小目标的置信度在0.8左右。性能远远高于对比算法训练出模型。验证了算法和训练出模型的正确性和有效性。

    本文改进YOLOv5算法之所以能实现以上效果,首先在于给Backbone主干网络中添加了注意力机制SE模块,使得提取的红外弱小目标特征被赋予了不同的权重,获得不同比重通道的特征图,从而使得神经网络能够有针对性的进行训练。从图 13训练过程中损失函数迭代过程可以看出,大约训练25个epoch后,神经网络趋于收敛,这大大节省了网络训练时间。其次,添加注意力机制SE模块能够提高训练出模型的针对性,并且轻量化模型,这不仅能降低虚警情况的出现,同时从表 4可以看出,改进YOLOv5算法训练出模型检测每帧图片速度大约为0.82 s,相较于实验对比SSD、Faster R-CNN、YOLOv3、YOLOv5算法,检测速度分别提高了85.86%、83.23%、66.80%、34.40%,明显提高了训练出模型检测红外弱小目标的实时速度。最后,从图 14检测结果分析出,改进的损失函数,考虑了红外弱小目标检测时预测框在目标真实框内导致无法判别预测框位置的问题,相对于实验对比算法,降低了漏警情况的出现。而改进的预测框筛选方式则可以有效避免当出现两个目标重叠情况时漏警现象的出现。

    综上所述,为了解决复杂背景下传统红外弱小目标检测过分依赖于对红外目标与环境背景的精确分离和信息提取的问题,本文提出了一种基于改进YOLOv5的复杂背景红外弱小目标检测算法。该算法训练出目标检测模型经过验证,在保证较高准确率的同时能达到实时检测的要求。训练出模型针对7种不同复杂背景,红外弱小目标均能有效检测出来,且不存在漏检和虚警的现象出现,平均精度均值达到99.6%以上,验证了算法和模型的正确性。下一步拟在不影响算法和模型性能的前提下继续提高检测速度。

  • 图  1   机械热补偿

    Figure  1.   Mechanical thermal compensation

    图  2   红外物镜光学布局

    Figure  2.   Optical layout of infrared objective lens

    图  3   红外物镜的MTF曲线和点列图

    Figure  3.   MTF curves and point graph of infrared objective lens

    图  4   可见光物镜光学布局

    Figure  4.   Optical layout of visible objective lens

    图  5   可见光物镜的MTF曲线和点列图

    Figure  5.   MTF curve and point plot of visible objective lens

    图  6   照相物镜光学布局

    Figure  6.   Optical layout of photographic objective lens

    图  7   照相物镜的MTF曲线

    Figure  7.   MTF curves of photographic objective lens

    图  8   图像配准精度分析示意图

    Figure  8.   Diagram of image registration accuracy analysis

    图  9   红外物镜和可见光物镜的场曲与畸变曲线

    Figure  9.   Field curve and distortion curve of infrared objective lens and visible objective lens

    表  1   图像融合系统光学设计参数

    Table  1   Optical design parameters of image fusion system

    Infrared lens Focal length
    Field
    F/#
    Wavelength
    Detector type
    38.7 mm
    16°×12°
    1.1
    8 μm-12 μm
    UFPA 640×480, 17 μm
    Visible lens Focal length
    Field
    F/#
    Wavelength
    Detector type
    51.22 mm
    16°×12°
    1.5
    0.6 μm~0.95 μm
    CMOS 800×600, 18 μm
    Fusion lens Registration accuracy
    Distance temperature
    One pixel(0.017 mm)
    45.5 m-∞
    -40℃-60℃
    下载: 导出CSV

    表  2   随距离变化的图像配准精度

    Table  2   Image registration accuracy with distance

    L/m d/mm Pixel Notes
    30 0.026 1.5 the size of each pixel is 0.017 mm
    40 0.019 1.1
    45.5 0.017 1
    50 0.015 0.88
    60 0.013 0.76
    下载: 导出CSV

    表  3   红外物镜与可见光物镜的畸变

    Table  3   Distortion of infrared objective lens and visible objective lens

    0.5ω 0.707ω 0.85ω 1ω
    Infrared lens 20℃ -0.61879% -1.24937% -1.83023% -2.59627%
    -40℃ -0.61847% -1.24882% -1.82957% -2.59568%
    60℃ -0.61883% -1.2494% -1.83017% -2.59595%
    Visible lens 20℃ -0.61071% -1.25465% -1.83872% -2.588%
    -40℃ -0.61292% -1.25212% -1.83447% -2.5828%
    60℃ -0.60927% -1.25632% -1.84153% -2.59143%
    下载: 导出CSV

    表  4   红外物镜和可见光物镜的图像配准误差

    Table  4   Image registration error of infrared objective lens and visible objective lens

    Theoretical image height /mm Infrared image height /mm Visibleimageheight /mm Error/mm
    0.5ω 3.75 3.72680 3.72710 0.00030
    0.707ω 5.3025 5.23626 5.23597 0.00029
    0.85ω 6.375 6.25832 6.25778 0.00054
    1ω 7.5 7.30528 7.30590 0.00062
    下载: 导出CSV

    表  5   红外物镜零件公差表

    Table  5   Tolerance table of infrared objective lens parts

    Parameter Tolerance
    N ±3aperture
    N ±0.7aperture
    Aspheric error ±0.00007 mm
    Thickness of optical parts ±0.02 mm
    Focal plane displacement compensation ±0.5 mm
    Surface tilt ±1'
    Air distance ±0.02 mm
    Element tilt 4.5'
    Element eccentricity 0.052 mm
    - -
    下载: 导出CSV

    表  6   可见光物镜零件公差表

    Table  6   Tolerance table of visible objective lens parts

    Parameter Tolerance
    N ±4aperture
    N ±0.6aperture
    Thickness of optical part ±0.03 mm
    Air distance ±0.05 mm
    Focal plane displacement compensation ±0.5 mm
    Surface tilt ±6'
    Element tilt ±6'
    Element eccentricity ±0.052 mm
    nd ±0.001
    vd ±1%
    下载: 导出CSV

    表  7   红外物镜公差分析结果

    Table  7   Tolerance analysis results of infrared objective lens

    Lens percentage /% MTF minimum(Nyquist frequency)
    90 0.135
    80 0.158
    50 0.196
    20 0.248
    10 0.275
    下载: 导出CSV

    表  8   可见光物镜公差分析结果

    Table  8   Tolerance analysis results of infrared lens visible objective lens

    Lens percentage /% MTF minimum(Nyquist frequency)
    90 0.301
    80 0.351
    50 0.455
    20 0.531
    10 0.597
    下载: 导出CSV
  • [1] 安福, 杨风暴, 李伟伟, 等.基于DWT的红外偏振与光强图像的融合[J].光电技术应用, 2013, 28(2): 18-23. http://www.cnki.com.cn/Article/CJFDTotal-GDYG201302008.htm

    AN Fu, YANG Fengbao, LI Weiwei, et al. Fusion of Infrared Polarization and Intensity Images Based on DWT[J]. Electro-optic Technology Application, 2013, 28(2): 18-23. http://www.cnki.com.cn/Article/CJFDTotal-GDYG201302008.htm

    [2] 曾朝阳, 程相正, 陈杭, 等.基于改进SURF算子的高低分辨率图像配准方法[J].激光与红外, 2014, 44(2): 207-212. http://d.wanfangdata.com.cn/Periodical/jgyhw201402022

    ZENG Zhaoyang, CHENG Xiaozheng, CHEN Hang, et al. Registrantion method of high-low resolution images based on improved SURF[J]. Laser & Infrared, 2014, 44(2): 207-212. http://d.wanfangdata.com.cn/Periodical/jgyhw201402022

    [3] 郭李华.基于金字塔和HIS变换的图像融合研究[J].微计算机应用, 2010, 31(11): 67-72. http://d.wanfangdata.com.cn/Periodical/wjsjyy201011011

    GUO Lihua. Research of Image Fusion Based on Laplacian-Pyramid and HIS-Transform[J]. Microcomputer Applications, 2010, 31(11): 67-72. http://d.wanfangdata.com.cn/Periodical/wjsjyy201011011

    [4] 韩泽, 蔺素珍, 赵竞超, 等.基于直觉模糊集的多波段图像融合[J].红外技术, 2018, 40(3): 253-258. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201711015

    HAN Ze, LIN Suzhen, ZHAO Jingchao, et al. Multi-band Image Fusion Based on Intuitionistic Fuzzy Set Theory[J]. Infrared Technology, 2018, 40(3): 253-258. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201711015

    [5] 李博博, 马泳, 张晓晔, 等.基于BMA滤波器和边缘的红外与可见光图像融合[J].红外技术, 2018, 40(2): 139-145. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201706011

    LI Bobo, MA Yong, ZHANG Xiaoye, et al. Infrared and Visible Image Fusion Based on BMA Filter and Edge[J]. Infrared Technology, 2018, 40(2): 139-145. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201706011

    [6] 张俊举, 常本康, 张宝辉, 等.远距离红外与微光/可见光融合成像系统[J].红外与激光工程, 2012, 41(1): 20-24. http://d.wanfangdata.com.cn/Periodical/hwyjggc201201005

    ZHANG Junju, CHANG Benkang, ZHANG Baohui, et al. Long-distance image fusion system for infrared and LLL/visible bands[J]. Infrared and Laser Engineering, 2012, 41(1): 20-24. http://d.wanfangdata.com.cn/Periodical/hwyjggc201201005

    [7] 孙爱平, 龚杨云, 朱尤攀, 等.微光与红外图像融合手持观察镜光学系统设计[J].红外技术, 2013, 35(11): 712-717. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201307017

    SUN Aiping, GONG Yangyun, ZHU Youpan, et al. Optical System Design of Low-light-level and Infrared Image Fusion Hand-held Viewer[J]. Infrared Technology, 2013, 35(11): 712-717. http://hwjs.nvir.cn/oa/DArticle.aspx?type=view&id=201307017

  • 期刊类型引用(29)

    1. 张子军,赵旭,李连鹏,刘子玉. 基于SIRA的红外和可见光图像未爆弹目标配准方法. 红外技术. 2025(03): 376-384 . 本站查看
    2. 陈健松,蔡艺军. 面向垃圾分类场景的轻量化目标检测方案. 浙江大学学报(工学版). 2024(01): 71-77 . 百度学术
    3. 傅饶,房建东,赵于东. 无监督缺失值预测的运动目标检测算法. 计算机工程与应用. 2024(04): 220-228 . 百度学术
    4. 刘子玉,赵旭,李连鹏,代牮. 基于NGG-YOLOv5的空对地UXO目标检测方法. 电光与控制. 2024(03): 70-74 . 百度学术
    5. 刘琦妍,张凯,王田田,杨尧. 基于残差密集连接注意力的红外目标识别算法. 电光与控制. 2024(06): 31-35 . 百度学术
    6. 宋为,王赫莹,郭忠峰,胡克腾. 基于改进YOLOv5s的目标检测算法. 机械工程师. 2024(09): 64-67 . 百度学术
    7. 张海峰,芦新春,冯博,杨进. 基于改进YOLOv5s的海水鱼种类识别. 食品与机械. 2024(08): 84-92 . 百度学术
    8. 张兴平,邵延华,梅艳莹,张晓强,楚红雨. 融合视觉显著性的红外航拍行人检测. 红外技术. 2024(09): 1043-1050 . 本站查看
    9. 周鹍,郭俊鑫,罗杰,李云红,李丽敏,苏雪平,侯乐乐. 基于红外测温数据的水电站设备缺陷检测方法. 红外技术. 2024(11): 1308-1314 . 本站查看
    10. 王育欣,张志,张家亮,韩江宁,连建国,祁一峰. 基于改进YOLOv5算法的光伏缺陷检测. 太阳能学报. 2024(12): 139-145 . 百度学术
    11. 王涛,冯凯. 自注意力特征下机场跑道周界异物入侵预警. 计算机仿真. 2024(12): 88-92 . 百度学术
    12. 张杰,魏艳龙,薛红新. 基于CBW-YOLOv5s轻量化模型的学生课堂行为快速检测. 现代计算机. 2024(21): 1-7 . 百度学术
    13. 曾耀,高法钦. 基于改进YOLOv5的电子元件表面缺陷检测算法. 浙江大学学报(工学版). 2023(03): 455-465 . 百度学术
    14. 刘宇宸,李浩. 显著性特征融合的热红外图像光伏组件热斑检测. 水力发电. 2023(04): 96-101+112 . 百度学术
    15. 刘璎瑛,曹晅,郭彬彬,陈慧杰,戴子淳,龚长万. 基于改进YOLO v5复杂场景下肉鹅姿态的检测算法研究. 南京农业大学学报. 2023(03): 606-614 . 百度学术
    16. 张军,郑黎明,刘先禄. 基于轻量化模型YOLOv4-tiny的目标检测改进. 阜阳师范大学学报(自然科学版). 2023(02): 58-65 . 百度学术
    17. 潘桂霞,赖惠成,王同官,赵艳杰,文晓鹏. 一种Yolov5颈部细化的小交通标志检测算法. 现代电子技术. 2023(14): 56-62 . 百度学术
    18. 梁纲,栗晓政,饶宇飞,杨磊,商兵兵. 一种Transformer引导YOLOv5对高空吊钩违规操作识别. 电工技术. 2023(10): 1-4 . 百度学术
    19. 薛强,李宇,葛绍妹,侯仕杰,周红,陈康伟,金美骥. 基于改进YOLOv5算法绝缘子缺陷检测研究. 电工技术. 2023(11): 182-185 . 百度学术
    20. 朱菊香,崔长胜,张赵良,张铭. 红外道路场景下车辆与行人检测算法. 国外电子测量技术. 2023(06): 171-179 . 百度学术
    21. 盛博莹,侯进,李嘉新,党辉. 面向复杂交通场景的道路目标检测方法. 计算机工程与应用. 2023(15): 87-96 . 百度学术
    22. 陆兆刚,朱旋. 轧辊磨床屏幕智能相机与图像识别方法研究. 电子测量与仪器学报. 2023(07): 243-250 . 百度学术
    23. 潘博阳. 融合多尺度注意力和分离解耦头的红外弱小目标检测算法. 首都师范大学学报(自然科学版). 2023(05): 30-36 . 百度学术
    24. 古静,朱志宇. 改进YOLOv5的红外船舶目标检测算法. 电光与控制. 2023(10): 21-26 . 百度学术
    25. 张玉彬,刘鹏谦,陈丽娜,韩雅鸽,刘蕊,谢静,徐长航. 基于YOLO v5的带涂层钢结构亚表面缺陷脉冲涡流热成像智能检测. 红外技术. 2023(10): 1029-1037 . 本站查看
    26. 张睿,李允臣,王家宝,李阳,苗壮. 基于深度学习的红外目标检测综述. 计算机技术与发展. 2023(11): 1-8 . 百度学术
    27. 史梦圆,高俊钗. 改进YOLO v5的建筑物破损检测算法研究. 国外电子测量技术. 2022(08): 84-90 . 百度学术
    28. 刘麒,尹港,王影,叶泽. 基于深度学习的水面漂浮物识别算法设计. 吉林化工学院学报. 2022(07): 28-33 . 百度学术
    29. 叶剑青,汪义贺,母久状,吴冰,朱峰. 基于YOLOv5s的电厂蒸汽泄漏检测研究. 现代信息科技. 2022(19): 52-56+60 . 百度学术

    其他类型引用(17)

图(9)  /  表(8)
计量
  • 文章访问数:  268
  • HTML全文浏览量:  45
  • PDF下载量:  43
  • 被引次数: 46
出版历程
  • 收稿日期:  2019-12-18
  • 修回日期:  2020-09-06
  • 刊出日期:  2020-11-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日