视觉SLAM在动态场景下的图像处理方法

游通飞, 孔令华, 刘文玉, 易定容, 殷江

游通飞, 孔令华, 刘文玉, 易定容, 殷江. 视觉SLAM在动态场景下的图像处理方法[J]. 红外技术, 2021, 43(10): 960-967.
引用本文: 游通飞, 孔令华, 刘文玉, 易定容, 殷江. 视觉SLAM在动态场景下的图像处理方法[J]. 红外技术, 2021, 43(10): 960-967.
YOU Tongfei, KONG Linghua, LIU Wenyu, YI Dingrong, YIN Jiang. Image Processing Method for Visual Simultaneous Localization and Mapping[J]. Infrared Technology , 2021, 43(10): 960-967.
Citation: YOU Tongfei, KONG Linghua, LIU Wenyu, YI Dingrong, YIN Jiang. Image Processing Method for Visual Simultaneous Localization and Mapping[J]. Infrared Technology , 2021, 43(10): 960-967.

视觉SLAM在动态场景下的图像处理方法

基金项目: 

国家自然科学基金资助项目 51775200

详细信息
    作者简介:

    游通飞(1994-),男,福建福州人,硕士研究生,研究方向:视觉SLAM和语义分割

    通讯作者:

    孔令华(1963-),男,加拿大人,教授,博士,硕士生导师,研究方向:三维视觉和多光谱检测。E-mail:15392030898@163.com

  • 中图分类号: TP391

Image Processing Method for Visual Simultaneous Localization and Mapping

  • 摘要: SLAM一直是机器人领域的研究热点,近年来取得了万众瞩目的进步,但很少有SLAM算法考虑到动态场景的处理。针对视觉SLAM场景中动态目标的处理,提出一种在动态场景下的图像处理方法。将基于深度学习的语义分割算法引入到ORB_SLAM2方法中,对输入图像进行分类处理的同时剔除人身上的特征点。基于已经剔除特征点的图像进行位姿估计。在TUM数据集上与ORB_SLAM2进行对比,在动态场景下的绝对轨迹误差和相对路径误差精度提高了90%以上。在保证地图精度的前提下,改善了地图的适用性。
    Abstract: Simultaneous localization and mapping(SLAM) has always been a research hotspot in the robotics field. In recent years, remarkable progress has been made in SLAM research, but few SLAM algorithms have considered the processing of dynamic scenes. Therefore, in this study, an image processing method for dynamic target processing in a visual SLAM scene is proposed. The semantic segmentation algorithm based on deep learning was introduced into the ORB_SLAM2 method and input image classification processing was accomplished while removing the feature points on the body. Pose estimation was performed based on images with eliminated feature points. Compared to ORB_SLAM2 on the TUM dataset, the absolute trajectory error and relative path error accuracy were improved by more than 90% in the dynamic scene. To ensure the accuracy of the generated map, the applicability of the map was improved.
  • 红外热像仪在变电设备的热故障监测具有广泛的应用,但单帧红外图像普遍存在视场窄、分辨率低等缺点,难以准确、及时地获取变电设备的整体状态[1]。通过图像拼接可将若干存在重叠区域的图像拼接成一幅无缝、无重影的宽视场图像,有助于监测变电设备整体的状态,提高巡检效率。但传统最佳缝合线或渐入渐出融合法进行融合时,往往会导致重叠区域存在明显的拼接痕迹或重影现象。因此研究一种适用于变电设备的红外图像拼接方法具有十分重要的意义。

    针对成像场景不同而导致红外图像间存在亮度差异问题,文献[2]等提出了一种改进的红外图像拼接算法,该算法采用平台直方图均衡化提高红外图像对比度,解决了因图像亮度差异而导致的拼接痕迹,但该算法对变电站复杂场景的适应性并不强。而文献[3]通过在感兴趣区域中提取SIFT特征点并结合KLT(Kanade-Lucas-Tomasi)跟踪算法确定特征点的位置信息并进行匹配,采用渐入渐出融合算法消除拼接痕迹,使得配准率提高了3.491%。文献[4]引入图像梯度信息,利用像素亮度差计算重叠区域的边权值,并采用图切割法寻求最佳缝合线,最后利用渐入渐出方法融合过渡,对于序列遥感图像的拼接取得了较好效果,但对于变电站红外图像拼接存在鬼影现象。文献[5]为解决图像融合中运动物体与缝合线过于靠近而造成鬼影的问题,引入颜色饱和度S改进能量函数,并在最佳缝合线搜索准则中加入局部信息权重来提高搜索灵活度,一定程度上消除了因运动物体靠近缝合线而产生的鬼影,但对于噪声严重的变电站红外图像拼接存在一定的局限性。

    上述研究成果为变电站红外图像拼接提供较好的参考思路,但由于成像环境复杂、红外图像噪声干扰大,导致部分图像拼接出现明显的拼接痕迹或重影现象。因此,本文提出一种改进最佳缝合线的红外图像拼接方法,该方法在拼接区域上引入局部权重系数,并对图像颜色差异强度进行形态学操作抑制噪声干扰,并通过动态规划改进缝合线搜索准则,搜索出最佳缝合线。

    为改善因成像环境复杂而造成配准效果不佳的问题,本文首先使用SIFT算法对图像进行配准,从而实现图像的一次拼接[6],然后再采用最佳缝合线算法进行图像融合[7]

    最佳缝合线的目的是使得拼接线从两幅图像重叠区域中差异最小的位置穿过,以尽可能地减少图像的偏差而带来拼接痕迹。其求解准则E(x, y)为:

    $$ E(x, y) = E_{\text{c}}^2(x, y) + {E_{{\text{geometry}}}}(x, y) $$ (1)

    式中:Ec(x, y)为图像颜色差异强度值;Egeometry(x, y)为图像结构差异强度值。Ec(x, y)表达式为:

    $$ {E_{\rm{c}}}(x,y) = {I_{{\rm{gray}}}}_1(x,y) - {I_{{\rm{gray}}}}_2(x,y) $$ (2)

    式中:Igray1(x, y)和Igray2(x, y)分别表示两幅待拼接图像I1I2对应的灰度图。

    Egeometry(x, y)表达式为:

    $$ {E_{{\text{geometry}}}}(x, y){{ = }}{\rm{Diff}}{\text{(}}{I_1}{\text{(}}x, y{\text{) , }}{I_2}{\text{(}}x, y{\text{))}} $$ (3)

    式中:Diff为计算I1I2两幅图像在xy方向梯度差的乘积因子。

    红外图像相较于可见光图像而言,其边界模糊,信噪比低,采用式(1)求解准则所得到的能量函数图存在较多噪声,图像的边缘信息模糊,如图 1(a)所示,搜索到的最佳缝合线往往不是从能量差异值最小的位置穿过,容易导致拼接重叠区域存在明显拼缝或重影。

    图  1  能量函数图
    Figure  1.  Energy function diagram

    因此,对能量函数改进,在式(1)中引入权重系数ωxy,并对图像颜色差异强度值Ecolor(x, y)的求解进行改进,求解准则Ea(x, y)定义为:

    $$ {E_{\rm{a}}}(x, y) = {\omega _{xy}}(E_{{\text{color}}}^2(x, y) + {E_{{\text{geometry}}}}(x, y)) $$ (4)

    式中:Ecolor(x, y)为改进后的图像颜色差异强度值;而Egeometry(x, y)通过式(3)求解;ωxyI1I2重叠区域上点(x, y)处加权值。

    $$ {\omega _{xy}} = \left\{ {\begin{array}{*{20}{c}} {k\frac{{{\delta _{xy}}}}{{{\delta _{\text{M}}}}}}&{{\delta _{xy}} < 0.7{\delta _{\text{M}}}} \\ { + \infty }&{{\text{others}}} \end{array}} \right. $$ (5)

    式中:k为差异图像加权系数;δxyI1I2重叠区域上点(x, y)处的差异值,δM=max(δxy)。δxy定义为:

    $$ {\delta _{xy}}{\text{ = }}\frac{{\left| {{I_1}{\text{(}}x, y{\text{) }} - {I_2}{\text{(}}x, y{\text{)}}} \right|}}{{\max {\text{(}}{I_1}{\text{(}}x, y{\text{) , }}{I_2}{\text{(}}x, y{\text{))}}}} $$ (6)

    引入形态学操作对Ecolor(x, y)的求解进行改进,采用灰度差图像的绝对值来近似计算,则:

    $$ E_{{\text{color}}}^{}(x, y) = \left\{ \begin{gathered} {I_{12}}(x, y) \times {W_{{\text{color}}}}\quad {I_{\text{bin}}}(x, y) = 1 \hfill \\ {I_{12}}(x, y)\quad \quad \quad \;\, \, {I_{\text{bin}}}(x, y) = 0\; \hfill \\ \end{gathered} \right. $$ (7)

    式中:I12为灰度差图像;Ibin为二值图像;Wcolor为权重系数。

    灰度差图像I12通过式(8)求解:

    $$ {I_{12}}(x, y) = {\text{abs(}}{I_{\text{gray}}}_1(x, y) - {I_{\text{gray}}}_2(x, y){\text{)}} $$ (8)

    二值图像Ibin根据式(9)求解:

    $$ {I_{{\rm{bin}}}}(x,y)= \left\{ {\begin{array}{*{20}{c}} 1&{({I_{12}}(x, y) \geqslant 1.5 \times {\rm{Imag}}{{\rm{e}}_{{\rm{avg}}}})} \\ 0&{({I_{12}}(x, y) < 1.5 \times {\rm{Imag}}{{\rm{e}}_{{\rm{avg}}}})} \end{array}} \right. $$ (9)

    式中:Imageavg为灰度差图像I12重叠区域内(x, y)像素的平均值。

    图 1(a)图 1(b)分别为改进前与本文改进后的能量函数图。通过对比可以发现,图 1(a)噪声较多,纹理不清晰;图 1(b)图像中大量噪声已经被滤除,同时也保留了图像重要的纹理信息,图像目标边缘和结构信息更清晰,更能突显红外图像的颜色差异与结构差异。

    传统的最佳缝合线搜索路径时,仅搜索所在位置下一行中的3个紧邻点,最大仅能向下方45°方向扩展,搜索路径上存在一定限制。因此,本文对搜索方法进行改进,由原来只搜索3个紧邻点扩展至搜索下一行中9个紧邻点,改进的搜索流程图,如图 2所示。

    图  2  基于动态规划搜索准则的改进搜索流程图
    Figure  2.  Improved search flow chart is based on dynamic programming search criteria

    ① 设两幅待拼接图像I1I2的重叠区域列数为m,把图像重叠区域中第一行的每个像素点作为缝合线的初始点,即m列对应m条缝合线;

    ② 搜索缝合线的扩展点。选择每条缝合线当前点(x, k)下一行的9个紧邻点作为备选扩展点,当前点与备选扩展点之间路径的能量值计算公式为:

    $$ {E_{{\text{sum}}}}(x, y){\text{ = }}\left\{ {\begin{array}{*{20}{c}} {\sum\limits_{i{\text{ = }}k + 1}^y {{E_{\text{N}}}(x, i)} }&{0 < y - k \leqslant 4} \\ 0&{y = k} \\ {\sum\limits_{i{\text{ = }}y}^{k - 1} {{E_{\text{N}}}(x, i)} }&{ - 4 \leqslant y - k < 0} \end{array}} \right. $$ (10)

    式中:Esum(x, y)表示第x行中的第y列到第k列之间所有点的能量值之和。EN(x, i)为点(x, i)的能量值。

    将每个备选扩展点的能量值与式(10)计算路径的能量值Esum(x, y)相加,得到备选扩展点总的能量值。进而一一比较每个备选扩展点总的能量值,选择最小值Es(x+1, y)的备选扩展点作为缝合线的扩展点。Es(x+1, y)的计算式为:

    $$ {E_{\text{s}}}(x{\text{ + }}1, y){\text{ = }}\mathop {\min }\limits_{k - 4 \leqslant y \leqslant k + 4} ({E_{\text{N}}}(x + 1, y) + {E_{{\text{sum}}}}(x, y)) $$ (11)

    式中:k为缝合线扩展当前点(x, k)前所在的列,x+1、y为当前点在下一行备选扩展点的行、列。确定新扩展点后,更新得到缝合线扩展后的能量值S(x+1, y),即:

    $$ S(x+1, y)=S(x, k)+E_{2}(x+1, y) $$ (12)

    式中:S(x, k)表示缝合线扩展前的能量值。

    ③ 完成当前行后继续返回步骤②扩展下一行的点,直至扩展至图像最后一行,跳转到步骤④;

    ④ 经过前面3个步骤,得到m条缝合线。从m条缝合线中,将能量值最小的缝合线选定为最佳缝合线。

    改进最佳缝合线的红外图像拼接算法流程图,如图 3所示。

    图  3  改进最佳缝合线的红外图像拼接方法流程
    Figure  3.  Improved infrared image Mosaic algorithm flow of the best seam-line

    先采用SIFT算法提取图像区域特征,实现图像配准;然后在重合区域上引入局部权重系数对图像颜色差异强度进行形态学操作,抑制噪声干扰进而改善能量函数图的纹理信息;最后通过动态规划改进缝合线搜索准则,搜索出最佳缝合线,进而完成图像拼接。

    为了验证算法的有效性,将本文方法与渐入渐出法、ORB算法、基于颜色校正的全景图像拼接方法[8]、传统最佳缝合线法进行对比实验,实验平台为PyCharm2019+Python3.6。

    使用红外热像仪采集绝缘子图像,分辨率为384×288。绝缘子图像如图 4所示。

    图  4  绝缘子图像
    Figure  4.  Two insulator images

    图 4的红外图像进行初步拼接,然后由最佳缝合线求解准则得到能量函数图,再通过动态规划方法搜索到缝合线,如图 5所示。

    图  5  绝缘子图像的能量函数图
    Figure  5.  Energy function diagram of insulator image

    图 5(a)图 5(b)可知,改进前能量函数图的噪声严重,缝合线受噪声干扰较大,改进后能量函数图的噪声得到了明显抑制,使得图像重叠区域的结构和边缘更清晰,缝合线很好地沿着能量最低的区域经过,避免拼接图像出现局部错位。

    不同算法的拼接效果如图 6所示。由图得知,通过渐入渐出法拼接后的图像,在电缆处出现明显重影。采用ORB算法拼接的图像,在绝缘子顶部的电缆接头处存在噪声斑点。基于颜色校正的全景图像拼接方法得到的图像,虽然噪声斑点较少,但是在电缆处存在明显的重叠和错位现象。采用传统最佳缝合线法拼接的图像同样存在错位现象。

    图  6  绝缘子图像拼接效果
    Figure  6.  Insulator image stitching effect

    相对于以上算法的拼接结果,采用本文改进最佳缝合线法拼接的图像,图像中局部放大区域未出现重影,融合的过渡区域无错位现象,细节更加清晰。这有助于后续获取变电设备的细节信息,从而更加高效地监测电气设备的整体状态。

    使用红外热像仪采集的变压器图像如图 7所示。

    图  7  变压器图像
    Figure  7.  Transformer image

    图 7的红外图像进行初步拼接,然后由最佳缝合线求解准则得到能量函数图,再通过动态规划方法搜索找到缝合线,如图 8所示。

    图  8  变压器图像的能量函数图
    Figure  8.  Energy function diagrams of the transformer images

    通过图 8(a)图 8(b)对比可知,改进前能量函数图的噪声严重,缝合线受噪声干扰较大;改进后能量函数图去除了大部分干扰信息,图像重叠区域的结构和边缘更清晰,使得缝合线能很好地沿着能量最低的区域经过,能有效避免拼接图像局部出现变形错位。

    不同算法的拼接效果如图 9所示。由图得知,采用渐入渐出法拼接后的图像,虽然没有明显的拼接缝隙,但在图像重叠区域边缘出现了重影现象。基于ORB算法的拼接图像同样出现重影现象。基于颜色校正的全景图像拼接方法拼接后的图像,由于图像配准存在偏差,导致图像出现错位现象。传统最佳缝合线法拼接后的图像,虽然没有明显的重影现象,但在融合区域存在拼接痕迹。

    图  9  变压器图像拼接效果
    Figure  9.  Transformer image stitching effect

    本文改进最佳缝合线法拼接后的图像,由于最大限度地避免缝合线穿过两幅图像差异较大的区域,相对以上算法的拼接结果,均未出现重影和错位现象,整体视觉效果更好。

    为评价改进算法的效果,反映红外图像的细节信息,选取了文献[9]所用的平均梯度AG、图像清晰度FD和图像边缘强度EI指标衡量改进算法的图像拼接效果。

    平均梯度AG表示图像平滑程度,反映图像细节反差能力,其数值越高,表示图像信息更丰富,图像细节保留更好,拼接效果过渡更自然。计算式为:

    $$ {A_{\rm{G}}} = \frac{1}{{M \times N}}\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {\sqrt {\frac{1}{2}\left( {{{\left( {{{\partial f} / {\partial x}}} \right)}^2} + {{\left( {{{\partial f} / {\partial y}}} \right)}^2}} \right)} } } $$ (13)

    式中:M×N为图像的尺寸;∂f/∂x表示图像在水平方向的梯度,而∂f/∂y表示图像在垂直方向的梯度。

    图像清晰度FD反映细节纹理信息,数值越高,表示图像的清晰程度越好,细节保留得越好。图像边缘强度EI则反映图像的边缘信息,其数值越高,表示图像边缘越清晰。

    表 1给出了平均梯度AG、图像清晰度FD和图像边缘强度EI的评价结果,从表中的数据可以看出:在绝缘子和变压器图像拼接实验中,采用本文改进的最佳缝合线方法与渐入渐出法、ORB算法、基于颜色校正的全景图像拼接方法和传统最佳缝合线方法相比,平均梯度AG的均值分别提高了2.74%、14.84%、8.54%和1.18%,这表明图像的信息更丰富,图像细节保留更好。图像清晰度FD的均值分别提高了3.27%、21.03%、8.75%和1.5%,即改进算法的拼接图像效果清晰度更好。边缘强度EI的均值分别提高了2.40%、5.7%、0.93%和1.05%,这表明改进算法在红外图像拼接中,图像边缘清晰度更好。

    表  1  拼接效果性能评价指标
    Table  1.  Performance evaluation of image fusion algorithms
    Experiment Algorithm AG FD EI
    Insulator image Fade in and fade out algorithm 7.0990 9.5881 70.8824
    Image stitching based on ORB algorithm 6.6598 8.4017 68.6762
    Fast Panorama Stitching method based on color correction 7.0382 9.4342 70.6413
    The traditional best seam-line method 7.1702 9.6849 71.4189
    The improved best seam-line method 7.1971 9.7345 71.6704
    The transformer image Fade in and fade out algorithm 5.9331 6.8986 63.6720
    Image stitching based on ORB algorithm 5.0789 5.7405 61.6745
    Fast Panorama Stitching method based on color correction 5.3790 6.3366 65.7563
    The traditional best seam-line method 6.0560 7.0687 64.8862
    The improved best seam-line method 6.1768 7.2439 66.0150
    下载: 导出CSV 
    | 显示表格

    本文针对变电站场景的红外图像,提出了一种改进最佳缝合线的红外图像拼接方法。利用改进的算法进行图像拼接后,图像融合区域过渡更平滑,拼接痕迹明显减少,且拼接后的图像在平均梯度、图像清晰度和图像边缘强度均有所提高,有效地避免了结果图像出现明显拼接痕迹等问题,有助于后续获取变电设备整体的准确状态,对提高巡检效率具有重要意义。

  • 图  1   ORB_SLAM2系统线程和结构

    Figure  1.   ORB_SLAM2 system threads and structure

    图  2   PSPNet算法结构

    Figure  2.   PSPNet algorithm structure

    图  3   剔除动态点方法

    Figure  3.   Remove dynamic point method

    图  4   ORB-SLAM2在walking_xyz下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  4.   Error of ORB-SLAM2 under walking_xyz(left: absolute trajectory error; right: relative pose error)

    图  5   本文方法在walking_xyz下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  5.   Error of our method under walking_xyz(left: absolute trajectory error; right: relative pose error)

    图  6   ORB-SLAM2在walking_halfsphere下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  6.   Error of ORB-SLAM2 under walking_halfsphere(left: absolute trajectory error; right: relative pose error)

    图  7   本文方法在walking_halfsphere下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  7.   Error of our method under walking_halfsphere(left: absolute trajectory error; right: relative pose error)

    图  8   ORB-SLAM2在walking_static下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  8.   Error of ORB-SLAM2 under walking_static(left: absolute trajectory error; right: relative pose error)

    图  9   本文方法在walking_static下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  9.   Error of our method under walking_static(left: absolute trajectory error; right: relative pose error)

    图  10   ORB-SLAM2在sitting_static下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  10.   Error of ORB-SLAM2 under sitting_static(left: absolute trajectory error; right: relative pose error)

    图  11   本文方法在sitting_static下的误差(左:轨迹误差;右:相对位姿误差)

    Figure  11.   Error of our method under sitting_static(left: absolute trajectory error; right: relative pose error)

    表  1   绝对轨迹误差对比(ATE)

    Table  1   Absolute trajectory error comparison

    Sequences ORB-SLAM2 Ours Improvement/%
    Rmse Mean Median Std Rmse Mean Median Std Rmse Mean Median Std
    walking_xyz 0.5357 0.4964 0.4733 0.2014 0.0269 0.0185 0.0151 0.0196 94.98 96.27 96.81 90.27
    walking_halfsphere 0.4318 0.3651 0.3107 0.2305 0.0334 0.0285 0.0243 0.0175 92.26 92.19 92.18 92.41
    walking_static 0.3753 0.3398 0.2963 0.1593 0.0076 0.0068 0.0062 0.0034 97.97 98.00 97.91 97.87
    sitting_static 0.0082 0.0071 0.0063 0.0041 0.0062 0.0054 0.0047 0.0031 24.39 23.94 25.40 24.39
    下载: 导出CSV

    表  2   相对位姿误差对比(RPE)

    Table  2   Relative pose error comparison

    Sequences ORB-SLAM2 Ours Improvement/%
    Rmse Mean Median Std Rmse Mean Median Std Rmse Mean Median Std
    walking_xyz 0.7856 0.6444 0.5714 0.4493 0.0400 0.0280 0.0222 0.0285 94.91 95.65 96.11 93.66
    walking_halfsphere 0.6200 0.4957 0.4705 0.3724 0.0474 0.0414 0.0373 0.0231 92.35 91.65 92.07 93.80
    walking_static 0.5354 0.3946 0.1802 0.3618 0.0112 0.0102 0.0096 0.0048 97.91 97.42 94.67 98.67
    sitting_static 0.0127 0.0112 0.0101 0.0060 0.0093 0.0081 0.0073 0.0044 26.77 27.68 27.72 26.67
    下载: 导出CSV

    表  3   相对旋转误差对比(RRE)

    Table  3   Relative rotation error comparison

    Sequences ORB-SLAM2 Ours Improvement/%
    Rmse Mean Median Std Rmse Mean Median Std Rmse Mean Median Std
    walking_xyz 14.3695 11.7969 0.1856 8.2046 0.8776 0.6192 0.0082 0.6220 93.89 94.75 95.58 92.42
    walking_halfsphere 14.5176 12.0261 0.2177 8.1323 1.0316 0.8956 0.0139 0.5118 92.89 92.55 93.62 93.71
    walking_static 9.6864 7.1088 0.0558 6.5796 0.3021 0.2724 0.0044 0.1306 96.88 96.17 92.11 98.02
    sitting_static 0.3572 0.3220 0.0054 0.1546 0.3347 0.2981 0.0048 0.1523 6.30 7.42 11.11 1.49
    下载: 导出CSV

    表  4   两种方法在TUM数据集的耗时

    Table  4   Time consuming of the two methods in TUM dataset

    Methods 1 2 3 Average
    ORB-SLAM2 54.314 58.629 59.373 57.439
    Ours 81.241 79.298 78.505 79.681
    下载: 导出CSV
  • [1]

    Durrant-Whyte H, Bailey Tim. Simultaneous localization and mapping: part I[J]. IEEE Robotics & Amp Amp Automation Magazine, 2006, 13(2): 99-10. http://vigir.missouri.edu/~gdesouza/Research/MobileRobotics/Simultaneous%20localization%20and%20mapping.%20IEEE%20Robotics%20and%20Automation%20magazine-%20Part%201,%20H.%20Durrant-White%20and%20T.%20Bailey.pdf

    [2] 张金凤, 石朝侠, 王燕清. 动态场景下基于视觉特征的SLAM方法[J]. 计算机工程, 2020, 46(10): 95-102. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJC202010012.htm

    ZHANG Jinfeng, SHI Chaoxia, WANG Yanqing. SLAM method based on visual features in dynamic scene[J]. Computer Engineering, 2020, 46(10): 95-102. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJC202010012.htm

    [3] 江国来. 共融移动服务机器人导航与交互关键技术研究[D]. 深圳: 中国科学院大学(中国科学院深圳先进技术研究院), 2019.

    JIANG Guolai. Research on Key Technologies of Navigation and Interaction of Inclusive Mobile Service Robot[D]. Shenzhen: University of Chinese Academy of Sciences, 2019.

    [4]

    HAN Shuangquan, XI Zhihong. Dynamic scene semantics SLAM based on semantic segmentation[J]. IEEE Access, 2020, 8: 43563-43570. DOI: 10.1109/ACCESS.2020.2977684

    [5]

    WANG Kai, LIN Yimin, WANG Luowei, et al. A unified framework for mutual improvement of SLAM and semantic segmen- tation[C]//International Conference on Robotics and Automation (ICRA) of IEEE, 2019: 5224-5230.

    [6]

    Bescos Berta, Fácil José M, Civera Javier, et al. Dyna SLAM: tracking, mapping and in painting in dynamic scenes[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 4076-4083. DOI: 10.1109/LRA.2018.2860039

    [7]

    YU Chao, LIU Zuxin, LIU Xinjun, et al. DS-SLAM: a semantic visual SLAM towards dynamic environments[C]//IEEE International Conference on Intelligent Robots and Systems(IROS), 2018: 1168-1174.

    [8] 王召东, 郭晨. 一种动态场景下语义分割优化的ORB_SLAM2[J]. 大连海事大学学报, 2018, 44(4): 121-126. DOI: 10.3969/j.issn.1671-7031.2018.04.020

    WANG Zhaodong, GUO Chen. An improved ORB_SLAM2 in dynamic scene with semantic segmentation[J]. Journal of Dalian Maritime University, 2018, 44(4): 121-126. DOI: 10.3969/j.issn.1671-7031.2018.04.020

    [9] 王晨, 汤心溢, 高思莉. 基于深度卷积神经网络的红外场景理解算法[J]. 红外技术, 2017, 39(8): 728-733. http://hwjs.nvir.cn/article/id/hwjs201708010

    WANG Chen, TANG Xinyi, GAO Sili. Infrared scene understanding algorithm based on deep convolutional neural network[J]. Infrared Technology, 2017, 39(8): 728-733. http://hwjs.nvir.cn/article/id/hwjs201708010

    [10]

    Mur-Artal Raul, D Tardos Juan. ORB-SLAM2: an opensource slam system for monocular, stereo, and rgb-d cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262. DOI: 10.1109/TRO.2017.2705103

    [11]

    ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2017: 6230-6239.

    [12] 李瀚超, 蔡毅, 王岭雪. 全局特征提取的全卷积网络图像语义分割算法[J]. 红外技术, 2019, 41(7): 595-599, 615. http://hwjs.nvir.cn/article/id/hwjs201907001

    LI Hanchao, CAI Yi, WANG Lingxue. Image semantic segmentation based on fully convoluted network with global feature extraction[J]. Infrared Technology, 2019, 41(7): 595-599. http://hwjs.nvir.cn/article/id/hwjs201907001

    [13]

    Sturm Jürgen, Engelhard Nikolas, Endres Felix, et al. A benchmark for the evaluation of RGB-D SLAM systems[C]//RSJ Int. Conf. Intell. Robots Syst. of IEEE, 2012: 573-580.

  • 期刊类型引用(5)

    1. 苑朝,黄诺飞,蒋阳,赵亚冬,赵振兵. 基于改进旋转不变性二进制描述算法的电力场景图像拼接. 电力科学与工程. 2024(01): 31-38 . 百度学术
    2. 张旭辉,王悦,杨文娟,陈鑫,张超,黄梦瑶,刘彦徽,杨骏豪. 基于改进最佳缝合线的矿井图像拼接方法. 工矿自动化. 2024(04): 9-17 . 百度学术
    3. 吴润国,刘晓东,费继友,赵兴,姚梦涛. 基于最佳缝合线的电力设备红外图像拼接算法. 电子测量技术. 2024(23): 162-170 . 百度学术
    4. 周登科,郭星辰,史凯特,汤鹏,郑开元,马鹏阁. 风电场无人机巡检红外叶片图像拼接算法. 红外技术. 2023(12): 1161-1168 . 本站查看
    5. 周登科,郭星辰,史凯特,汤鹏,郑开元,马鹏阁. 风电场无人机巡检红外叶片图像拼接算法. 红外技术. 2023(11): 1161-1168 . 本站查看

    其他类型引用(6)

图(11)  /  表(4)
计量
  • 文章访问数:  204
  • HTML全文浏览量:  42
  • PDF下载量:  45
  • 被引次数: 11
出版历程
  • 收稿日期:  2020-06-05
  • 修回日期:  2020-07-27
  • 刊出日期:  2021-10-19

目录

/

返回文章
返回