车载红外和可见光图像配准方法

苏建彬, 沈英, 黄磊, 沈元兴

苏建彬, 沈英, 黄磊, 沈元兴. 车载红外和可见光图像配准方法[J]. 红外技术, 2024, 46(10): 1209-1217.
引用本文: 苏建彬, 沈英, 黄磊, 沈元兴. 车载红外和可见光图像配准方法[J]. 红外技术, 2024, 46(10): 1209-1217.
SU Jianbin, SHEN Ying, HUANG Lei, SHEN Yuanxing. Automotive Infrared and Visible Light Image Registration Method[J]. Infrared Technology , 2024, 46(10): 1209-1217.
Citation: SU Jianbin, SHEN Ying, HUANG Lei, SHEN Yuanxing. Automotive Infrared and Visible Light Image Registration Method[J]. Infrared Technology , 2024, 46(10): 1209-1217.

车载红外和可见光图像配准方法

基金项目: 

国家自然科学基金 62005049

详细信息
    作者简介:

    苏建彬(1990-),男,硕士,讲师,主要从事图像处理方面的研究。E-mail: 877518727@qq.com

    通讯作者:

    沈英(1982-),女,博士,教授,博导,主要从事遥感测试、光机电算一体化方面的研究。E-mail: yshen@fzu.edu.cn

  • 中图分类号: TP391.4

Automotive Infrared and Visible Light Image Registration Method

  • 摘要:

    为了提高车辆视觉感知能力,针对交通场景运用提出一种改进的轮廓角方向(contour angle orientation,CAO)算法用于实现红外与可见光图像配准。通过模拟不同的交通场景,对成熟算法进行性能检测对比,选出CAO算法这一优势算法,并对其粗匹配参数和图像预处理图像缩放程序做了改进。实验表明,改进后的CAO算法细匹配更精准,马赛克拼接图拼接处衔接更加自然,线条更加顺滑,效果更好。与原来CAO算法相比,改进后的算法均方根误差值RMSE下降3.29%,查准率Precision提高2.13%,平均运算耗时减少0.11 s,在配准精度和配准实时性方面均证明了算法的改进效果。

    Abstract:

    To enhance the visual perception of vehicles, an improved contour angle orientation (CAO) algorithm is proposed for the registration of infrared and visible light images in traffic scenes. By simulating different traffic scenarios, a performance comparison was conducted among mature algorithms to select the superior CAO algorithm. Subsequently, improvements were made to the coarse matching parameters and image preprocessing scaling procedure. Experiments demonstrate that the refined CAO algorithm achieves more precise fine matching, thus resulting in mosaic stitching with smoother transitions and lines and yielding better results. Compared with the original CAO algorithm, the improved version reduces the RMSE value by 3.29%, increases the precision value by 2.13%, and decreases the average computation time by 0.11 s, thereby demonstrating improvements in both registration accuracy and real-time performance.

  • 随着医疗保障的提高,人口老龄化已是当今社会的一个问题。根据相关调查表明,老年人受到意外伤害的主要原因之一就是摔倒。因此,防止老年人摔倒也变得越来越重要。世界卫生组织报告说,每年因跌倒造成的严重伤害超过3730万人次,死亡64.6万人[1]。摔倒是一个重要的公共健康问题,其伤害很大程度上取决于救助响应时间的长短。智能的摔倒检测系统可以全天候工作,及时做出反应,实时保护人们的安全。

    现在主流的人体摔倒检测方法根据检测传感器的不同大致分为基于穿戴式的摔倒检测、基于环境式的摔倒检测以及基于计算机视觉的摔倒检测3类。基于穿戴式检测法通常将加速度计以及陀螺仪等传感器佩戴在身体上,收集运动数据[2-4],使用采集得到的传感器数据训练MLP[5](multilayer perceptron)、SVM[6](support vector machines)等机器学习算法进行人体摔倒检测。基于外部传感器的摔倒检测方法需要随身穿戴传感器,存在用户穿戴起来不方便和不自在,容易脱落等问题。基于环境式的摔倒检测是提前在指定的区域布置好诸如压力传感器、声音传感器等,通过传感器采集到的数据进行检测,这种方法存在容易被环境噪声影响[7],成本高等问题。另外,基于计算机视觉的摔倒检测法通常对摄像头拍摄到的图像进行目标的提取,获取其特征,再通过对特征的分析从而得到摔倒检测结果。文献[8]将行人用矩形框表示,通过矩形框的长宽比例来说明行人的姿态,从而进行摔倒检测;文献[9]将目标的轮廓拟合成椭圆,提取其几何与运动两种特征,组成一个新的特征,使用SVM进行摔倒判断;文献[10]使用高斯混合模型得到人体目标,提取多帧特征并融合得到基于时间序列的运动特征,使用一个简单的卷积神经网络判断摔倒。文献[11]中提出一种基于人体骨骼关键点和神经网络的人体摔倒检测方法,通过Alphapose检测人体骨骼关键点,并用来训练LSTM(long short term memory)神经网络,实现人体摔倒的检测。

    上述人体摔倒检测研究中使用的视频与图像均是可见光图像,然而在生活中应用人体摔倒检测的往往是老人和容易出现情况的病人,这些地方一般都是需要24h监控。可见光图像在夜晚和光照条件不好的场景中不能很好地呈现出图像,在这些情况下不能做到准确地检测摔倒情况。红外图像目标识别技术是指通过对红外图像进行预处理,然后提取目标特征,最后实现目标的定位与识别[12]。与可见光图像相比,红外图像直观反映的是物体的温度,一般而言红外图像中行人的亮度比背景亮度要高,且纹理、颜色和光照对红外图像几乎没什么影响,这使得红外图像在进行人体检测方面具有很大的优势和潜力。

    针对上述问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。该方法采用红外相机采集图像,图像经过全卷积网络得到人体目标中心点,并在中心点位置回归出目标位置以及状态属性等,从而实现人体摔倒检测。

    目标检测识别往往在图像上将目标以轴对称的框形式框出,大多数成功的目标检测器都是罗列出大量的候选框并对其分类。这样做法浪费时间,并且低效,还需要额外的后处理。本文中提出采用一种不同的方法,构建模型是将目标作为一个点,即目标的中心点。检测器通过热力图寻找中心点然后回归目标的其他属性,比如大小,3D位置坐标,方向甚至姿态。相比较于基于目标框的检测器,基于中心点的检测网络centernet[13]是一个端到端的、独特的、简单而快速的目标检测器。

    在网络中,仅仅将图像传入全卷积网络,得到高维特征图,然后在特征图上进行卷积操作得到热力图,确定目标中心点、中心点偏移值以及目标尺寸大小。网络整体架构如图 1所示。

    图  1  Centernet网络整体架构
    Figure  1.  Overall network architecture of Centernet

    令$I \in {R^{W \times H \times 3}}$为输入图像,其宽为W,高为H。目标是生成关键点热力图${Y^ \wedge } \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$,其中R是输出步长(即尺寸缩放比例),C是关键点类型数(即输出特征通道数),在本文中由于目标类别有3种,因此C=3。使用Y^x, y, c=1表示检测到的关键点,Y^x, y, c=0表示前景。其中使用深层聚合网络DLA[14](deep layer aggregation)预测得到每张图像I的关键点热力图Y^,DLA是带多级跳跃连接的图像分类网络。

    在训练关键点预测网络中,对于Ground Truth(即GT)的关键点c,其位置定义为pR2,计算得到低分辨率上的对应关键点为$\tilde p \in [\frac{p}{R}]$。然后通过使用高斯核${Y_{xyc}} = \exp ( - \frac{{{{(x - {{\tilde p}_x})}^2} + {{(y - {{\tilde p}_y})}^2}}}{{2\sigma _p^2}})$将每一个GT关键点映射到热力图$Y \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$上,其中${\sigma _p}$是目标尺度-自适应的标准方差[15]。如果对于同个类c(同个关键点或是目标类别)有两个高斯函数发生重叠,选择元素级最大的。训练目标函数是一个像素级逻辑回归的焦点损失函数,其公式如下[16]

    $${L_k} = \frac{{ - 1}}{N}\sum\limits_{xyc} {\left\{ {\begin{array}{*{20}{l}} {{{(1 - {Y^ \wedge }_{xyc})}^\alpha }\ln ({Y^ \wedge }_{xyc})}&{{\rm{if}}\;{Y_{xyc}}{\rm{ = }}1}\\ {{{(1 - {Y^ \wedge }_{xyc})}^\beta }\ln {{({Y^ \wedge }_{xyc})}^\alpha }}&{{\rm{otherwise}}}\\ {\ln (1 - {Y^ \wedge }_{xyc})}&{{\rm{otherwise}}} \end{array}} \right.} $$ (1)

    式中:αβ是损失函数的超参数;N是图像I中的关键点个数,式中除以N是为了将所有焦点损失归一化。在实验中,一般选取α=2,β=3。

    由于在图像下采样时,GT的关键点会因数据是离散的而产生偏差,因此对每个中心点附加预测了一个局部偏移${O^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$,所有类别c共享同个偏移预测,这个偏移使用L1 loss来训练,公式如下:

    $${L_{{\rm{off}}}} = \frac{1}{N}\sum\limits_p {\left| {{O^ \wedge }_{\tilde p} - (\frac{p}{R} - \tilde p)} \right|} $$ (2)

    将目标作为点来进行目标检测是本文算法的核心思想,具体做法如下。假设在图像中目标k的边界框ck为$(x_1^{(k)}, y_1^{(k)}, x_2^{(k)}, y_2^{(k)})$,那么其中心位置为${p_k} = (\frac{{x_1^{(k)} + x_2^{(k)}}}{2}, \frac{{y_1^{(k)} + y_2^{(k)}}}{2})$。通过使用上文中提到的关键点估计器Y^来预测图像中所有目标的中心点。此外,为每个目标回归出目标的尺寸,其公式为${s_k} = (x_2^{(k)} - x_1^{(k)}, y_2^{(k)} - y_1^{(k)})$。为了减少计算负担,对所有对象种类使用单一的尺寸预测,表达式为:${s^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$。另外在每个中心点位置添加一个L1 loss,目标尺寸的损失函数如式(3)所示:

    $${L_{{\rm{size}}}} = \frac{1}{N}\sum\limits_{k = 1}^N {\left| {s_{{p_k}}^ \wedge - {s_k}} \right|} $$ (3)

    在此方法中,不用归一化目标尺寸而是直接使用原始像素坐标。为了调节总的loss的影响,分别对损失函数中的偏移损失和尺寸损失乘以一个影响系数,整个训练的目标损失函数如式(4)所示:

    $${L_{{\rm{det}}}} = {L_k} + {l_{{\rm{size}}}}{L_{{\rm{size}}}} + {l_{{\rm{off}}}}{L_{{\rm{off}}}} $$ (4)

    实验中,根据经验影响系数分别设置为λsize=0.1,λoff=1。在整个过程中,通过使用单个网络来预测出关键点${Y^ \wedge }$,中心点偏移量${O^ \wedge }$以及目标尺寸${S^ \wedge }$。整个网络预测结果会在每个位置输出(C+4)个值,即关键点类别c,关键点偏移量xy以及尺寸WH,所有的输出共享同一个全卷积网络骨干。对于每一个通道,其主干的特征都要通过一个单独的3×3卷积,ReLU和一个1×1卷积。

    在前面提到所提的检测方法是通过检测每个目标的中心点,也就是在热点图中提取每个类别的峰值点。得到峰值点的方法是:将热力图上的所有的响应点与其相邻的8个点进行比较,如果该点响应值大于或者等于其他8个临近点则保留,否则丢弃。最后保留所有满足之前要求的前100个峰值点。令$p_c^ \wedge $是检测到的c类别的n个中心点的集合,${p^ \wedge } = \left\{ {(x_i^ \wedge , y_i^ \wedge )} \right\}_{i = 1}^n$表示类别c的所有中心点的集合,每个关键点都以整型坐标(xi, yi)的形式给出。通过使用一个关键点值${Y^ \wedge }_{{x_i}, {y_i}, c}$作为其检测置信度的度量,并且在关键点位置处生成一个边界框,其表达式如下式所示:

    $$\begin{gathered} (x_i^ \wedge + \delta x_i^ \wedge - w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge - h_i^ \wedge /2 \\ x_i^ \wedge + \delta x_i^ \wedge + w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge + h_i^ \wedge /2) \\ \end{gathered} $$

    式中:$(\delta x_i^ \wedge , \delta y_i^ \wedge ) = O_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是关键点偏移预测结果,$(w_i^ \wedge , h_i^ \wedge ) = S_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是目标边界框的尺度预测结果。

    目前基本上所有的基于视觉的摔倒检测研究都是在可见光图像上基础上进行的,为了避免复杂光照条件影响以及能在夜晚和白天24h工作,本文研究了基于红外图像下的人体摔倒检测。因为没有公开的红外图像人体摔倒数据集,为此在这对公开的人体摔倒数据集进行分析,了解其数据集中的人体行为,摔倒场景,图像分辨率等内容。在此基础上,搭建人体摔倒场景,设定行为内容,然后使用红外成像设备获取红外数据,制作红外图像人体摔倒数据集。

    本文主要研究了MuHAVi-MAS17和Le2i两个公开数据集,这两个摔倒数据集在摔倒检测中使用最多,其数据量大,内容丰富,是目前主流的人体摔倒检测数据库。

    MuHAVi-MAS17是一个行为识别数据集,其中包含了人们在生活中的常做的行为,诸如走路、坐、奔跑以及需要的摔倒动作。此数据集使用8个摄像头在不同的方位来录制数据,内容丰富且样本多样化。数据集中每个人都有多个不同视角的摔倒图像,有左摔和右摔姿势,分辨率为720×576。

    Le2i摔倒数据集是法国学者们使用一个分辨率为320×240的相机在一个拟真的场景中录制而来。数据集中有200多个视频序列,包含办公室、咖啡室、客厅以及演讲室等不同场景。在各种场景中的人进行了多种日常动作和摔倒行为,日常动作有下蹲、行走以及弯腰等,摔倒姿势有前后摔和左右摔等,内容丰富,数据充足。

    通过对上述摔倒数据集的分析与研究,本文使用红外图像设备自行采集红外图像人体摔倒图像,建立摔倒数据集。选择在一间场景较为简单的房间为摔倒场景,将红外相机放置在房间的不同角落以获得不同方向的图像。红外相机分辨率为640×480,输入电压12V,是一款高清单目热红外成像仪。红外相机如图 2所示。

    图  2  红外相机以及电源
    Figure  2.  Infrared camera and power supply

    通过电脑读取红外相机获取的原始实时流数据,由于原始红外数据是14位的,无法使用电脑显示出来,所以使用OpenCV对其进行预处理,转为8位数据,并对图像线性拉伸,提高对比度。整套录制场景如图 3所示。

    图  3  红外数据录制场景
    Figure  3.  Infrared data recording scene

    本文实验平台是一台Intel Xeon八核E5-2620V4(2.1GHz,QPI速度8.0GT/s),64G内存的高性能计算工作站。为了验证本文提出的检测方法,邀请了几位成人模拟室内日常活动以及摔倒行为,图像中包含单人活动、两人活动以及多人(3~4人)活动,共录制了4组数据,共获取到30000多张红外图像。对已经获取的红外人体摔倒数据集进行筛选,考虑到获取数据时帧率很高,导致相邻的图像内容变化不大,经过观察选择每10张中提取一张作为有效数据,提取大约3000张图像作为训练与测试数据,其中训练集2500余张,测试集约260余张。部分数据集如图 4所示。

    图  4  部分人体摔倒数据集
    Figure  4.  Partial human fall dataset

    通过使用本文提出的检测方法在制作的红外行人摔倒数据集上进行测试,经过参数的调整,得到比较好的结果,部分实验结果如图 5所示。

    图  5  人体摔倒检测效果
    Figure  5.  Human fall detection effect

    在以往的人体摔倒检测中,摔倒的状态往往是平躺或者侧躺的姿势,本文为了提高样本的多样性,更加真实地模拟现实场景中的摔倒,添加了例如趴着、跪着摔倒以及由于摔倒而脚抬升等不同的摔倒姿势。通过图 5中的实验结果可以看出,算法能够准确地检测出各种摔倒姿态与正常两状态。对于在摔倒时发生前有行人或物体遮挡情况下亦能准确检测,能够满足在一定场景内的行人摔倒检测需求。

    为了分析本文提出算法的性能和实时性,通过使用YOLO v3、Faster RCNN算法与之做对比实验,测试结果如表 1所示。

    表  1  对比实验结果
    Table  1.  Comparison of experimental results
    Algorithm Accuracy/(%) Time/(ms/frame)
    Yolo v3 96.9 0.0421
    Faster RCNN 95.7 0.441
    Ours 98.4 0.0462
    下载: 导出CSV 
    | 显示表格

    从表中可以看出,Yolo v3与本文算法的运行速度很快,而Faster RCNN算法速度较慢。由于本文方法网络的整个输出都是直接从关键点估计得出,因此不需要基于IOU(intersection over union)的非极大值抑制NMS(non max suppression)或者其他后续处理,这对整个网络的检测速度有了很大的提升。表中可以看出本文方法在红外图像人体摔倒检测中准确率达到了98%以上,比其他两种方法高,对有遮挡和各种不同姿态的摔倒方式等较为复杂的情况下都能有效定位与识别。

    为了进一步分析实验结果的可靠性,选择摔倒检测中常用的准确率和召回率来对本文训练的模型进行评判。通过改变识别阈值,得到不同阈值下的准确率与召回率,最后得到P-R(precision-recall)曲线,如图 6所示。

    图  6  本文算法的P-R曲线
    Figure  6.  The P-R curve of the algorithm in this paper

    对于P-R曲线来说,曲线下的面积越大,即AP(average precision)值越大,证明模型的性能越好。从图 6曲线中能够看出,在使用的较少的测试数据下本文训练的模型性能优越,能够准确进行红外图像下的人体摔倒检测。

    针对人体摔倒检测问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。基于目前人体摔倒检测所使用的数据集特点,搭建红外图像采集系统与环境,建立了自己的红外图像人体摔倒数据集。通过关键点估计来找到人体目标中心点,然后回归人体目标属性,如目标尺寸、标签等,从而得到检测结果。实验结果表明,本文提出的方法在红外图像上能实时地进行人体摔倒检测,有较好的准确性和鲁棒性,具有较高的实际应用价值。在未来的工作中,扩展自建的红外图像人体摔倒数据集,丰富人体摔倒的场景和姿态,进一步研究红外图像下人体摔倒检测问题是未来工作的重点研究内容。

  • 图  1   CAO算法流程示例

    Figure  1.   Flow chart of CAO algorithm

    图  2   改进前后的粗匹配示意图

    Figure  2.   Schematic diagram of rough matching before and after improvement

    图  3   交通场景分类图例:(a)~(e)分别是非机动车场景、行人场景、机动车场景、道路岔口场景、混合交通场景

    Figure  3.   Traffic scenario classification legend: (a) to (e) are respectively non-motor vehicle scene, pedestrian scene, motor vehicle scene, road fork scene, and mixed traffic scene

    图  4   视角偏差分类图例

    Figure  4.   Illustration of angle of view deviation classification

    图  5   本次实验图像集采集器材

    Figure  5.   Image collection equipment for this experiment

    图  6   各场景图像配准融合结果:(a) 行人场景;(b) 非机动车场景;(c) 机动车场景;(d) 道路岔口场景;(e) 混合交通场景

    Figure  6.   Image registration fusion results of each scene: (a) Pedestrain scene; (b) Non-motorized vehicle scene; (c) Motorized vehicle scene (d) Road intersection scene; (e) Mixed traffic scene

    图  7   五种算法在各场景中的RMSE值和precision值

    注:PS为行人场景、NMVS非机动车场景、MVS为机动车场景、RIS为道路岔口场景、MTS为混合交通场景

    Figure  7.   RMSE values and precision values of the five algorithms in each scenario

    Note: PS is pedestrain scene; NMVS is non-motorized vehicle scene; MVS is motorized vehicle scene; RIS is road intersection scene; MTS is mixed traffic scene

    图  8   改进前后的细匹配结果

    Figure  8.   Fine matching results before and after improvement

    图  9   改进前后的马赛克拼接图对比

    Figure  9.   Comparison of mosaic before and after improvement

    图  10   边缘特征提取算法和改进前后CAO算法在复杂视角偏差组中性能表现

    Figure  10.   Performance of edge feature extraction algorithm and CAO algorithm before and after improvement in complex angle of view deviation groups

    图  11   边缘特征提取算法和改进前后CAO算法在水平偏差、纵向偏差、无明显视角偏差组中性能表现

    Figure  11.   Performance of edge feature extraction algorithm and CAO algorithm before and after improvement in horizontal deviation, longitudinal deviation and no obvious angle of view deviation groups

    图  12   算法改进前后运行耗时对比

    Figure  12.   Comparison of running time before and after algorithm improvement

    表  1   按场景分类图像对数量

    Table  1   Classifies the number of image pairs by scene

    Scene classification Number of image pairs
    Pedestrian 5
    Non-motorized vehicle 2
    Motorized vehicle 2
    Road intersection 5
    Mixed traffic 6
    下载: 导出CSV

    表  2   按视角偏差分类图像对数量

    Table  2   Categorizes the number of image pairs according to viewpoint deviation

    Classification of angle of view deviation Horizontal angle of view deviation Vertical angle of view deviation Complex angle of view deviation No significant angle of view deviation
    Number of image pairs 7 2 5 6
    下载: 导出CSV

    表  3   实验器材信息

    Table  3   Information of the experimental equipment

    Experimental equipment Related parameters
    Visible light camera Hikvision camera, resolution: 2048×1536, Focal length: 12 mm
    Infrared camera FLIR infrared camera, resolution: 640×480, Focal length: 16 mm
    Test platform AMD 5600X processor, 16 G memory
    下载: 导出CSV

    表  4   边缘特征提取算法和改进前后CAO算法的RMSE平均值与Precision平均值

    Table  4   RMSE and precision average values of edge feature extraction algorithm and CAO algorithm before and after improvement

    EFE CAO Improved CAO
    RMSE mean value 10.70 7.90 7.64
    Precision mean value 0.70 0.94 0.96
    下载: 导出CSV

    表  5   算法改进前后在各视角偏移中的平均运行耗时

    Table  5   The average running time of each angle of view offset before and after algorithm improvement

    Evaluation metrics Comparison algorithm Horizontal deviation Longitudinal deviation Complex deviation No deviation
    Average runtime/s Original algorithm 4.58 4.79 4.63 5.14
    Improved algorithm 4.50 4.24 4.59 5.07
    下载: 导出CSV
  • [1]

    HONG R, XIANG C L, LIU H, et al. Visualizing the knowledge structure and research evolution of infrared detection technology studies[J]. Information, 2019, 10(7): 227. DOI: 10.3390/info10070227

    [2]

    LI S T, KANG X D, FANG L Y, et al. Pixel-level image fusion: a survey of the state of the art [J]. Information Fusion, 2017, 33: 100-112. DOI: 10.1016/j.inffus.2016.05.004

    [3]

    MA J Y, MA Y, LI C. Infrared and visible image fusion methods and applications: a survey[J]. Information Fusion, 2019, 45: 153-178. DOI: 10.1016/j.inffus.2018.02.004

    [4]

    Castillo J C, Fernandez-Caballero A, Serrano-Cuerda J, et al. Smart environment architecture for robust people detection by infrared and visible video fusion[J]. Journal of Ambient Intelligence and Humanized Computing, 2017, 8(2): 223-237. DOI: 10.1007/s12652-016-0429-5

    [5]

    Fendri E, Boukhriss R R, Hammami M. Fusion of thermal infrared and visible spectra for robust moving object detection[J]. Pattern Analysis and Applications, 2017, 20(4): 907-926. DOI: 10.1007/s10044-017-0621-z

    [6]

    Apatean A, Rogozan A, Bensrhair A. Visible-infrared fusion schemes for road obstacle classification[J]. Transportation Research Part C-Emerging Technologies, 2013, 35: 180-192. DOI: 10.1016/j.trc.2013.07.003

    [7]

    DONG Yakui, FEI Cheng, ZHAO Guopeng, et al. Registration method for infrared and visible image of sea surface vessels based on contour feature[J]. Heliyon, 2023, 9(3): 14166-14176. DOI: 10.1016/j.heliyon.2023.e14166

    [8]

    Kumar K S, Kavitha G, Subramanian R, et al. MATLAB-A Ubiquitous Tool for the Practical Engineer[M]. Croatia: InTech, 2011: 307-326.

    [9] 李大华, 郑文鹏, 李璇, 等. 基于局部归一化的电力设备红外与可见光图像配准[J/OL]. 激光与光电子学进展, 2025, 62(6): 0637007.

    LI Dahua, ZHENG Wengpeng, LI Xuan, et al. Infrared and visible image registration of power equipment based on local normalization[J]. Laser & Optoelectronics Progress, 2025, 62(6) : 0637007.

    [10] 程国华, 王阿川, 陈舒畅, 等. 多源遥感影像高精度自动配准方法研究[J]. 液晶与显示, 2016, 31(6): 604-612.

    CHEN Guohua, WANG Achuan, CHEN Shuchang, et al. High accuracy-automatic registration method research on multi-source remote sensing image[J]. Liquid Crystals and Displays, 2016, 31(6): 604-612.

    [11] 谭东杰, 张安. 方向相关与互信息加权组合多模图像配准方法[J]. 红外与激光工程, 2013, 42(3): 836-841. DOI: 10.3969/j.issn.1007-2276.2013.03.067

    TAN Dongjie, ZHANG an, Multi-model image registration based on weighted orientation correlation and mutual information[J]. Infrared and Laser Engineering, 2013, 42(3): 836-841. DOI: 10.3969/j.issn.1007-2276.2013.03.067

    [12] 李云红, 刘宇栋, 苏雪平, 等. 红外与可见光图像配准技术研究综述[J]. 红外技术, 2022, 44(7): 641-651. http://hwjs.nvir.cn/article/id/77ef812e-5018-435f-a023-771b550bedc7

    LI Yunhong, LIU Yudong, SU Xueping, et al. Review of infrared and visible image registration[J]. Infrared Technology, 2022, 44(7): 641-651. http://hwjs.nvir.cn/article/id/77ef812e-5018-435f-a023-771b550bedc7

    [13] 吴延海, 张程, 张烨. 基于梯度信息和区域互信息的图像配准[J]. 广西大学学报: 自然科学版, 2017, 42(2): 720-727.

    WU Yanhai, ZHANG Cheng, ZHANG Ye. Image registration based on gradient and regional mutual information[J]. Journal of Guangxi University(Natural Science Edition), 2017, 42(2): 720-727.

    [14] 孙凤杰, 赵孟丹, 刘威, 等. 基于方向场的输电线路间隔棒匹配定位算法[J]. 中国电机工程学报, 2014, 34(1): 206-213.

    SUN Fengjie, ZHAO Mengdan, LIU Wei, et al. Spacer matching and localization algorithm for transmission line video images based on directional field[J]. Proceedings of the CSEE, 2014, 34(1): 206-213.

    [15] 刘刚, 周珩, 梁晓庚, 等. 非下采样轮廓波域红外与可见光图像配准算法[J]. 计算机科学, 2016, 43(11): 313-316. DOI: 10.11896/j.issn.1002-137X.2016.11.061

    LIU Gang, ZHOU Heng, LIANG Xiaogeng, et al. Image registration algorithm for infrared and visible light based on non-subsampled contourlet transform[J]. Computer Science, 2016, 43(11): 313-316. DOI: 10.11896/j.issn.1002-137X.2016.11.061

    [16]

    MA J, JIANG X, FAN A, et al. Image matching from handcrafted to deep features: a survey[J]. International Journal of Computer Vision, 2021, 129(1): 23-79. DOI: 10.1007/s11263-020-01359-2

    [17]

    MOREL J M, YU G. ASIFT: A new framework for fully affine invariant image comparison[J]. SIAM Journal on Imaging Sciences, 2009, 2(2): 438-469. DOI: 10.1137/080732730

    [18]

    YANG N, YANG Y, LI P, et al. Research on infrared and visible image registration of substation equipment based on multi-scale Retinex and ASIFT features[C]//Sixth International Workshop on Pattern Recognition. International Society for Optics and Photonics, 2021, 11913: 1191303.

    [19]

    BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[C]//European Conference on Computer Vision(ECCV), 2006, 3951(1): 404-417.

    [20]

    JIANG Q, LIU Y, YAN Y, et al. A contour angle orientation for power equipment infrared and visible image registration[J]. IEEE Transactions on Power Delivery, 2021, 36(4): 2559-2569. DOI: 10.1109/TPWRD.2020.3011962

    [21] 李云红, 罗雪敏, 苏雪平, 等. 基于改进曲率尺度空间算法的电力设备红外与可见光图像配准[J]. 激光与光电子学进展, 2022, 59(12): 138-145.

    LI Yunhong, LUO Xuemin, SU Xueping, et al. Registration method for power equipment infrared and visible images based on improved curvature scale space algorithm[J]. Progress in Laser and Optoelectronics, 2022, 59(12): 138-145.

    [22]

    CHENG T, GU J, ZHANG X, et al. Multimodal image registration for power equipment using clifford algebraic geometric invariance[J]. Energy Reports, 2022, 8: 1078-1086. DOI: 10.1016/j.egyr.2022.02.192

    [23] 陈亮, 周孟哲, 陈禾. 一种结合边缘区域和互相关的图像配准方法[J]. 北京理工大学学报, 2016, 36(3): 320-325.

    CHEN Liang, ZHOU Mengzhe, CHEN He, A method for image registration combined by edge region and cross correlation[J]. Transactions of Beijing Institute of Technology, 2016, 36(3): 320-325.

    [24] 付添, 邓长征, 韩欣月, 等. 基于深度学习的电力设备红外与可见光图像配准[J]. 红外技术, 2022, 44(9): 936-943. http://hwjs.nvir.cn/article/id/1f007d8f-ee0d-4cd3-b609-1084e911d70a

    FU Tian, DENG Changzheng, HAN Xinyue, et al. Infrared and visible image registration for power equipment based on deep learning[J]. Infrared Technology, 2022, 44(9): 936-943. http://hwjs.nvir.cn/article/id/1f007d8f-ee0d-4cd3-b609-1084e911d70a

    [25] 赵俊梅, 张利平. 复杂天气和环境下交通标志图像特征匹配技术的研究[J]. 车辆与动力技术, 2022(4): 38-43.

    ZHAO Junmin, ZHANG Liping. Research on image feature matching technology of traffic signs in complex weather and environment[J]. Vehicle & Power Technology, 2022(4): 38-43.

    [26] 姜骞, 刘亚东, 方健, 等. 基于轮廓特征的电力设备红外和可见光图像配准方法[J]. 仪器仪表学报, 2020, 41(11): 252-260.

    JIANG Qian, LIU Yadong, FANG Jian, et al. Registration method for power equipment infrared and visible images based on contour feature[J]. Chinese Journal of Scientific Instrument, 2020, 41(11): 252-260.

    [27] 徐伯庆, 孙国强, 陈离. 数字图像缩放的原理与硬件实现[J]. 上海理工大学学报, 2002, 24(3): 222-225. DOI: 10.3969/j.issn.1007-6735.2002.03.005

    XU Boqing, SUN Guoqiang, CHEN Li. The principle and hardware implementation of digital image scaling[J]. Journal of University of Shanghai for Science and Technology, 2002, 24(3): 222-225. DOI: 10.3969/j.issn.1007-6735.2002.03.005

    [28] 余先川, 吕中华, 胡丹. 遥感图像配准技术综述[J]. 光学精密工程, 2013, 21(11): 2960-2972.

    YU Xianchuan, LV Zhonghua, HU Dan. Review of remote sensing image registration techniques[J]. Optics and Precision Engineering, 2013, 21(11): 2960-2972.

    [29] 陈勇, 皮德富, 周士源, 等. 基于小波变换的红外图像融合技术研究[J]. 红外与激光工程, 2001, 30(1): 3.

    CHEN Yong, PI Defu, ZHOU Shiyuan, et al. Study for infrared image fusion based on wavelet transform[J]. Infrared and Laser Engineering, 2001, 30(1): 3.

    [30]

    Rublee E, Rabaud V, Konolige K, et al. ORB: an efficient alternative to SIFT or SURF[C]//International Conference on Computer Vision, 2011, 2564-2571(DOI: 10.1109/ICCV.2011.6126544).

  • 期刊类型引用(3)

    1. 邬苏秦,王府圣,周川鸿,朱卫纲,曲卫. 基于深度学习的毫米波雷达人体摔倒检测系统研究. 电子设计工程. 2024(02): 181-186 . 百度学术
    2. 丁玲,赵昆. 基于人体关键点识别的机器人舞姿模仿系统研究. 自动化与仪器仪表. 2024(06): 169-173 . 百度学术
    3. 王梦溪,李峻. 老年人跌倒检测技术研究综述. 计算机与现代化. 2024(08): 30-36 . 百度学术

    其他类型引用(1)

图(12)  /  表(5)
计量
  • 文章访问数:  111
  • HTML全文浏览量:  20
  • PDF下载量:  39
  • 被引次数: 4
出版历程
  • 收稿日期:  2023-10-24
  • 修回日期:  2024-01-01
  • 刊出日期:  2024-10-19

目录

/

返回文章
返回