红外架空导线图像的分割与检测方法

黎新, 曾祥进, 洪俐, 冯崧

黎新, 曾祥进, 洪俐, 冯崧. 红外架空导线图像的分割与检测方法[J]. 红外技术, 2024, 46(12): 1390-1398.
引用本文: 黎新, 曾祥进, 洪俐, 冯崧. 红外架空导线图像的分割与检测方法[J]. 红外技术, 2024, 46(12): 1390-1398.
LI Xin, ZENG Xiangjin, HONG LI, FENG Song. Wire Segmentation and Detection Method for Infrared Overhead Wire Images[J]. Infrared Technology , 2024, 46(12): 1390-1398.
Citation: LI Xin, ZENG Xiangjin, HONG LI, FENG Song. Wire Segmentation and Detection Method for Infrared Overhead Wire Images[J]. Infrared Technology , 2024, 46(12): 1390-1398.

红外架空导线图像的分割与检测方法

基金项目: 

湖北省湖北三峡实验室创新基金 SC215001

详细信息
    作者简介:

    黎新(1998-),男,硕士,主要研究方向为机器视觉。E-mail:lxwork0347@qq.com

    通讯作者:

    曾祥进(1977-),男,副教授,硕士生导师,主要研究方向为智能机器人控制、机器视觉、嵌入式系统设计、运动控制等。E-mail:xjzeng21@163.com

  • 中图分类号: TP391

Wire Segmentation and Detection Method for Infrared Overhead Wire Images

  • 摘要:

    针对架空高压电线巡检难度高、检测效率低等问题,提出了一种架空高压导线分割与检测的方法。该方法利用直方图双峰法、感兴趣区域提取、滤波器与图像差分相结合的导线优化方法来剔除掉图像中云层、杆塔、地面等干扰项。通过优化了投票与筛选机制的改进的霍夫直线检测算法提取导线,最后通过绝缘子与导线间的拓扑关系截取需要的导线部分。实验结果表明:本文算法检测性能良好,平均交并比为94.4%,导线检测正确率92.8%。满足实际工业生产要求。

    Abstract:

    In this study, a method for overhead high-voltage wire segmentation and inspection is proposed to address the difficulty and low efficiency of overhead high-voltage cable inspection. This method utilizes the histogram bimodal method, region of interest extraction, and a wire optimization method that combines filters and image differentiation to extract and eliminate interference items, such as clouds, towers, and the ground in the image. The improved Hough line detection algorithm, which optimizes the voting and screening mechanisms, extracts the wires, and finally intercepts the required part of the wires through the topological relationship between the insulators and wires. The experimental results show that the proposed algorithm has ideal detection performance, with an average intersection-to-parallel ratio of 94.4% and a wire detection accuracy of 92.8%, meeting actual industrial production requirements.

  • 近年来,借助于深度学习等理论,视觉目标跟踪技术取得了重大突破。但现有跟踪算法大多是针对可见光场景,对于热红外目标跟踪的研究文献较少,只有LIU等人[1-4]进行了较为深入的研究。

    与可见光目标跟踪相比,热红外跟踪具有不受照明变化影响的优点,可以在完全黑暗的情况下跟踪目标。因此,热红外跟踪在灾难救援、视频监控和夜间巡逻等领域具有广阔的应用前景[5]。随着热红外成像设备在民用领域的普及化使用,热红外目标跟踪正逐步成为计算机视觉领域的一个研究热点。

    和可见光跟踪相似,热红外跟踪也面临着不少挑战。首先,热红外图像缺少颜色信息,较难获得目标对象的判别特征,从而降低了跟踪性能[6]。比如两个不同颜色的相似物体在热红外图像中几乎是相同的。除此之外,热红外跟踪还面临如遮挡、外观变化和运动模糊等挑战。

    近年来,深度学习已成功应用到视觉跟踪中,取得了一系列重要成果。与基于手工特征的跟踪器相比,基于卷积神经网络(Convolutional Neural Networks,CNN)的跟踪器可以获得更优越的跟踪性能。因为单个卷积层特征对跟踪中的各种挑战(例如形变和背景杂斑)鲁棒性不强,现有基于深度学习的跟踪算法大多是融合浅层和深层特征进行跟踪,比如HCF(Hierarchical Convolutional Features)[7]基于KCF(Kernel Correlation Filter)框架,使用预训练的VGG-19(Visual Geometry Group-19)网络提取目标的Conv3-4(Convolution 3-4)、Conv4-4、Conv5-4层特征进行融合,而TADT(Target-Aware Deep Tracking)[8]基于全卷积孪生网络(Fully-Convolutional Siamese Network,SiamFC)[9]框架使用预训练的VGG-16网络提取Conv4-1、Conv4-3层特征并进行融合等等。上述算法均属于特征层融合,并没有实现决策层融合,而且使用单一跟踪器无法有效应对复杂背景及目标外观变化等挑战因素。

    考虑到卷积神经网络的强大表征能力及其在视觉跟踪中的成功应用,本文将在可见光图像数据集上预训练的CNN用于热红外跟踪任务,并基于此设计了一个多响应图集成的热红外目标跟踪方法。

    全卷积孪生网络是ECCV 2016(European Conference on Computer Vision 2016)会议[9]上提出的一种全新的目标跟踪框架,其通过比较初始目标模板和当前帧中搜索区域的特征来进行跟踪。其实现流程可以由下式定义:

    $$ f\left( {z, x} \right) = \varphi \left( z \right)*\varphi \left( x \right) + b $$ (1)

    式中:ϕ(z)为第一帧中模板图像z对应的特征图;ϕ(x)为后续帧中待搜索区域x的特征图;*为卷积运算符,b为偏置项。图 1给出了SiamFC网络结构图。

    图  1  SiamFC网络结构
    Figure  1.  SiamFC network structure

    本文算法选择全卷积孪生网络作为目标跟踪的基本框架,主要原因在于:①全卷积孪生网络结构简单,可以在较大的搜索图像中定位目标模版,并且跟踪速度快。②在跟踪过程中目标模板不更新,可以有效应对目标遮挡等挑战。

    虽然Siamese框架是在大型视频数据集ILSVRC15(Large Scale Visual Recognition Challenge 2015)上预先训练的,但是Siamese跟踪器没有充分利用与特定目标对象相关的语义信息。因此在本文算法中,我们借鉴了TADT的做法,从一个预先训练好的CNN中选择对于目标最具判别性以及对于目标尺度变化最为敏感的卷积滤波器(特征通道)来生成目标深度特征。在本文中,我们选择使用VGG-16卷积网络来提取对于热红外目标敏感的特征。在2.2节中将给出特征通道的选择方法。

    诸如VGG、ResNet(Residual Network)等卷积网络中的参数是在庞大的数据集中预训练获得的,相对于当前要跟踪的对象存在许多冗余的特征通道信息。冗余的特征通道会占用大量的计算资源,这也是许多基于深度学习的跟踪算法执行速度较慢的原因。除此之外,冗余的特征通道还会对跟踪造成干扰,影响跟踪精度。本文在特征提取过程中进行通道选择,减少冗余特征通道对当前跟踪目标的不利影响。

    本文的通道选择是基于文献[10]提出的GCAM(Grad-Class Activation Mapping)模型来实现的。GCAM模型根据每个输入像素点的梯度来表示其属于给定类别标记的重要性,通过沿特征通道计算加权和,生成一个类活动映射。特征通道的权值是通过对该通道中所有梯度的全局平均池化(Global Average Pooling,GAP)来计算的,权值高的特征通道对当前类的贡献大。公式如下:

    $$ {\varDelta _i} = {G_{{\text{AP}}}}\frac{{\partial L}}{{\partial {z_i}}} $$ (2)

    式中:Δi表示计算出的第i个通道的重要性;GAP是全局平均池化函数;L是损失函数;zi指的是第i个过滤器的输出特征。

    借鉴该理论,本文算法在提取深度特征后计算每个特征通道的梯度值,从中选择最能标记目标特征也就是重要性较高的特征通道进行后续运算。

    虽然当前主流跟踪算法都使用了深度特征,但使用单个跟踪器在某些场景下仍然很难获得优秀的跟踪性能。基于此,本文提出利用多个互补的卷积层特征构建一个集成式热红外目标跟踪方法。本文利用VGG-16卷积网络分别提取待跟踪目标的Conv4-1、Conv4-2、Conv4-3和Conv5-1层特征,并形成如下3种特征组合:{Conv4-2、Conv4-1}、{Conv4-3、Conv4-1}、{Conv5-1、Conv4-1}。利用上述3种特征组合分别设计跟踪器1、跟踪器2、跟踪器3,在3种特征组合中均包含Conv4-1层,这是因为文献[8]的实验表明Conv4-1层特征最适合用来进行目标的尺度估计。每个跟踪器的计算过程都是相似的,下面以跟踪器1为例给出具体跟踪过程:

    1)提取待跟踪目标的Conv4-1和Conv4-2层特征(每层共包含512个特征通道);

    2)利用2.2节中提到的方法计算所有特征通道的梯度信息,选择对于目标活动和尺度变化较为敏感的特征通道参与后序的互相关操作。经过通道选择后,降低了卷积层的维度,提高了卷积层的有效性。本文按照重要性高低对所有特征通道进行排序并选择了Conv4-2层的前300个通道和Conv4-1层的前80个通道进行融合参与后续运算。

    3)通过互相关操作获取目标响应图。

    利用2.3节的方法可以获得多个响应图,在本节将给出利用KL散度将多个响应图进行集成的过程。

    我们可以用Pk表示第k个跟踪器产生的目标位置响应图,QRM×N表示集成后的响应图。然后采用KL散度度量他们之间的广义距离,该距离越小则认为他们之间的分布差异越小,也就意味着集成后的概率图Q更能反映每一个概率图Pk中一致的部分,即目标出现概率最大的区域。通过最小化该KL散度,可以达到优化概率图Q的目的,具体过程如下式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{k = 1}^n {{\text{KL}}({P^k}||Q)} $$ (3)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    其中:

    $$ {\text{KL}}({P^k}||Q) = \sum\limits_{ij} {p_{ij}^k} \log \frac{{p_{ij}^k}}{{{q_{ij}}}} $$ (4)

    式中:pijqij分别表示概率图P与概率图Q中的第(i, j)个元素。pijk表示概率图Pk中目标位置为(i, j)的概率,i={1, 2, …, M}, j={1, 2, …, N},并且服从$ \sum {p_{ij}^k} = 1 $。

    由于在跟踪场景中可能存在背景杂斑等干扰,因此在响应图中会存在“多峰”现象,即存在多个目标位置响应。文献[1]提供了一个行之有效的去噪策略,本文借鉴该策略将2.3节中得到的响应图进行过滤,下式给出过滤过程:

    $$ {P^{k, z}} = {P^k} \odot {P^z} $$ (5)

    式中:k={1, 2, …, n-1},z={k+1, k+2, …, n}。

    在式(5)中n代表跟踪器的数量;⊙表示点乘操作。按照式(5)进行去噪处理可以使过滤后的概率图具有更高的置信度,提高跟踪的精确度。n个响应图进行两两去噪处理后可以得到(n(n-1))/2个噪音更少、置信度更高的概率图A={P1, 2, P1, 3, …, P2, 3, …Pn-1, n}。因此公式(3)可以被重写成如下形式:

    $$ \arg \mathop {\min }\limits_Q \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} $$ (6)
    $$ {\text{s}}{\text{.t}}{\text{.}}\quad \sum {{q_{ij}} = 1} $$

    根据拉格朗日乘数法,令:

    $$ F({p_{ij}}, {q_{ij}}) = \sum\limits_{p \in A} {\sum\limits_{ij} {{p_{ij}}} } \log \frac{{{p_{ij}}}}{{{q_{ij}}}} + \lambda (\sum {{q_{ij}} - 1} ) $$ (7)

    对所有的pijqij求偏导并令F′(p)和F′(q)等于0,最终可求得:

    $$ Q = \frac{2}{{n(n - 1)}}\sum\limits_{p \in A} p $$ (8)

    通过取式(8)中响应图Q中的最大值可以得到目标的位置(x, y):

    $$ (x, y) = \arg \mathop {\max }\limits_{i, j} Q(i, j) $$ (9)

    我们在Win10系统中使用Matlab2016b编程语言实现了所提出的目标跟踪算法。为了验证本文所提算法的有效性,在配备I7-10700 2.9 GHz CPU和GTX-1080 GPU的PC上进行了实验,对比算法有HCF[7]、SiamFC[9]、TADT[8]、MDNet(Multi-Domain Convolutional Neural Networks)[11]、ATOM(Accurate Tracking by Overlap Maximization)[12]、MCFTS(Multi-Layer Convolutional Features for Thermal Infrared Tracking)[1]、HSSNet(Hierarchical Spatial-Aware Siamese Network)[2]、MLSSNet(Multi-Level Similarity Network)[3]、MMNet(Multi-Task Matching Network)[4]。其中MCFTS、MLSSNet、HSSNet和MMNet是专用红外目标跟踪算法,其他5种算法均为近年来优秀的可见光跟踪算法。

    因为目前公开的红外视频数据集非常少,所以很多学者使用VOT-TIR16(The Thermal Infrared Visual Object Tracking 2016)[13]和PTB-TIR(Thermal Infrared Pedestrian Tracking Benchmark)[14]作为热红外跟踪评估数据集。VOT-TIR16数据集中视频序列过少,只包含25个红外视频序列,部分跟踪算法可以通过调参的方式去适应。PTB-TIR数据集中虽然包含60个红外视频序列,但跟踪目标均为行人,类别较为单一,无法评估跟踪算法对通用目标的跟踪效果。

    2020年8月发布的LSOTB-TIR[15]有效解决了上述问题。LSOTB-TIR是迄今为止规模最大,多样性最强的热红外目标跟踪数据集。包含120个跟踪序列,涵盖22个目标类别,超过8.2万帧图像。LSOTB-TIR中定义了4种场景属性,这4种场景中的红外视频分别由车载、手持、无人机载和监控设备拍摄,保证了视频来源的多样性。著名的可见光数据集OTB-100(Object Tracking Benchmark)定义了11种挑战属性,LSOTB-TIR则定义了红外目标跟踪中的12种挑战属性。在这12种挑战属性中,有8种属性和OTB-100中的类似,分别为遮挡、出视野、背景杂斑、形变、尺度变化、低分辨率、快速运动和运动模糊,这里不再赘述。剩余的4种为热红外跟踪中特有的挑战属性,具体定义在表 1中列出。

    表  1  LSOTB-TIR定义的的4种热红外挑战属性
    Table  1.  Four thermal infrared challenge attributes defined by LSOTB-TIR
    Infrared challenge attributes Specific definitions
    Aspect Ratio
    Variation(ARV)
    The aspect ratio of the target exceeds [0.5, 2] during tracking
    Intensity Variation
    (Ⅳ)
    The intensity of the target changes during tracking
    Thermal Crossover
    (TC)
    Two targets of the same intensity cross each other
    Distractor(DIS) There are interfering objects similar to the target around the target
    下载: 导出CSV 
    | 显示表格

    因为LSOTB-TIR的全面性和多样性,所以本文选择使用LSOTB-TIR作为评估数据集。需要说明的是,本文并没有选择全部视频序列进行测试,而是从上述4种应用场景数据集中随机选择了40个典型红外短视频序列进行测试,这是因为LSOTB-TIR没有跟踪失败重启机制,在长视频序列中如果在某一帧丢失目标并且在后续帧无法找回将极大影响跟踪成功率,采用短视频序列测试更加公平。本文所提算法在40个视频序列上的平均跟踪速度约为11.2 FPS。

    图 2为本文算法与MDNet等9种对比算法在LSOTB-TIR上生成的总精确度图和成功率图,本文提出的算法在这两项重要指标上均排名第一。与参照算法TADT相比,跟踪精确度和成功率分别提高了3.6%和4.2%,大幅超过了MMNet等红外目标跟踪算法,证明了本文采用的响应图集成策略取得较好的效果。图 3给出了10种算法在变形、背景杂斑、运动模糊、相似物干扰等4种复杂场景下的精确度曲线图,本文所提算法均体现了较强的鲁棒性。相比优秀的可见光跟踪器ATOM,本文算法的跟踪精确度率分别提高了13.2%、10.5%、13.9%和27.8%,说明本文所提算法更适合于红外目标跟踪。

    图  2  10种算法在LSOTB-TIR的距离精度曲线图和成功率曲线
    Figure  2.  Distance accuracy curves and success rate curves of ten algorithms in LSOTB-TIR
    图  3  10种算法在LSOTB-TIR上4种挑战性场景下精确度曲线图
    Figure  3.  Accuracy curves of ten algorithms in four challenging scenarios of LSOTB-TIR

    为了更直观地评估本文所提算法的跟踪性能,图 4给出了本文算法与另外3种在LSOTB-TIR数据集上表现优异的算法(TADT、ATOM和MDNet)在car_S_003、cow_H_001、person_S_015、street_S_001等4个视频序列的可视化跟踪结果。这4个视频序列非常具有代表性,包括汽车、动物、行人和环境复杂的街道,几乎涵盖了重要种类的地面红外目标。定性分析过程如下:

    图  4  本文算法与另外三种算法跟踪结果比较
    Figure  4.  Comparison of tracking results with other three algorithms

    1)car_S_003视频序列中跟踪目标为行进中的汽车。ATOM跟踪器在第9帧时即受到周围相似物的干扰而发生漂移,第52帧中TADT和MDNet也接近丢失目标,第105帧时只有本文算法可以准确跟踪。

    2)cow_H_001跟踪目标为右起第二只羊,从视频截图可以看出,ATOM和MDNet均受到相似物和周围环境干扰丢失目标,只有本文算法和TADT可以持续准确跟踪。

    3)person_S_015视频序列中跟踪目标为右边的行人,旁边有个撑伞的行人和其同步前进,存在相似物及热交叉等干扰。ATOM、TADT分别在第30帧、第210帧时跟踪失败。相比MDNet,本文算法定位更为精确。

    4)street_S_001视频序列中跟踪目标为街道上背包的行人,该视频序列包含热交叉、背景杂斑、遮挡等多种挑战。从视频截图可以看出其他几种算法跟踪框均漂移到相似的行人上,而本文算法因为集成了多个跟踪器可以正确跟踪。

    本节通过标准数据集LSOTB-TIR上的消融实验来验证算法相关模块设计的合理性。首先,为了验证通道选择的有效性,以跟踪器1(Ours_1)为例,比较了不进行通道选择(No_CS)和进行通道选择的效果对比。如图 5(a)所示,本文算法在只选择了300个通道的情况下跟踪精度还提高了0.6%,证明冗余通道可以丢弃,并且丢弃冗余通道后跟踪速度有了显著提升,因此利用通道选择后的跟踪器参与后续集成更加高效。其次,为了验证集成方法的有效性,将本文提出的集成方法(Ours)与跟踪器1(Ours_1)、跟踪器2(Ours_2)及跟踪器3(Ours_3)分别单独跟踪的结果进行了对比。如图 5(b)所示,可以看出集成算法较其他3个单独跟踪方法在跟踪精确度上分别提升了2.5%、3.6%和1.6%。消融结果证明了本文所提算法的有效性。

    图  5  消融实验
    Figure  5.  Ablation experiment

    基于简洁高效的全卷积孪生网络框架提出了一种多响应图集成的红外目标跟踪算法。算法的创新之处在于利用预训练的VGG-16网络来提取热红外目标的深度特征并进行通道选择,进而通过对不同层次的深度特征进行组合设计了3个跟踪器。最后基于KL散度将3个跟踪器的响应图进行集成以获取最优结果。为了验证本文算法的实际效果,在大型热红外数据集LSOTB-TIR上进行了测试并和近年来几种先进的目标跟踪算法进行了比较。实验结果表明,本文所提算法性能良好,具有一定的实际应用价值。

  • 图  1   导线红外图像

    Figure  1.   Wire infrared image

    图  2   本文算法流程

    Figure  2.   Algorithm process

    图  3   通道分离图

    Figure  3.   Channel separation image

    图  4   直方图双峰法

    Figure  4.   Bimodal histogram method

    图  5   提取导线的ROI区域

    Figure  5.   Extract ROI of wire

    图  6   滤波差分算法

    Figure  6.   Filtering and differencing algorithm

    图  7   导线强化图

    Figure  7.   Reinforced wire images

    图  8   矩阵存储的投票结果

    Figure  8.   Voting results stored in a matrix

    图  9   霍夫直线检测算法的结果

    Figure  9.   Results of Hough line detection algorithm

    图  10   投票区域的权值分布

    Figure  10.   Weight distribution in voting area

    图  11   改进霍夫直线算法的流程

    Figure  11.   Improved Hough line detection algorithm process

    图  12   MIoU所需要的真值图

    Figure  12.   Truth image for MIoU

    图  13   检测结果对比

    Figure  13.   Comparison of detection results

    表  1   实验硬件和软件环境

    Table  1   Experimental platform parameter settings

    Experiment platform Model parameters
    Operating system Windows 11
    CPU i5-12400F 2.50 GHz
    GPU RTX 2060s 8G
    Programming language C++
    下载: 导出CSV

    表  2   实验检测结果

    Table  2   Experimental results

    Preprocessing methods Paper
    [12]
    Canny algorithm Our filtering and differencing algorithm
    Detection method Hough line algorithm Our improved Hough Hough line algorithm Our improved Hough
    MIoU 88.4% 81.9% 82.1% 83.9% 94.4%
    Accuracy 86.4% 80.5% 84.2% 83.4% 92.8%
    下载: 导出CSV
  • [1] 赵乐, 王先培, 姚鸿泰, 等. 基于可见光航拍图像的电力线提取算法综述[J]. 电网技术, 2021, 45(4): 1536-1546.

    ZHAO Le, WANG Xianpei, YAO Hongtai, et al. Review of power line extraction algorithms based on visible light aerial images[J]. Power Grid Technology, 2021, 45(4): 1536-1546.

    [2]

    YAN Dongya. Research and application status of industrial robot control system[C]//3rd International Conference on Mechanical, Control and Computer Engineering, 2018: DOI: 10.1109/ICMCCE.2018.00012.

    [3]

    ZHAO L, YAO H, TIAN M, et al. Robust power line extraction from aerial image using object-based Gaussian-Markov random field with gravity property parameters[J]. Signal Processing: Image Communication, 2022, 103: 116634 DOI: 10.1016/j.image.2022.116634

    [4]

    HAN Chuang, LIU Qu. Appearance monitoring of the transmission lines based on hough transform[C]//13th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI) 2020: DOI: 10.1109/CISP-BMEI51763.2020.9263568.

    [5] 隋宇, 宁平凡, 牛萍娟, 等. 面向架空输电线路的挂载无人机电力巡检技术研究综述[J]. 电网技术, 2021, 45(9): 3636-3648.

    SUI Yu, NING Pingfan, NIU Pingjuan, et al. Review of UAV-mounted power inspection technology for overhead transmission lines[J]. Power Grid Technology, 2021, 45(9): 3636-3648.

    [6] 邵瑰玮, 刘壮, 付晶, 等. 架空输电线路无人机巡检技术研究进展[J]. 高电压技术, 2020, 46(1): 14-22.

    SHAO Guiwei, LIU Zhuang, FU Jing, et al. Research progress on UAV inspection technology for overhead transmission lines[J]. High Voltage Engineering, 2020, 46(1): 14-22.

    [7] 孙苗苗, 姜媛媛, 李振璧, 等. 基于图像拼接和帧间差分输电线路图像分割方法[J]. 红外技术, 2017, 39(2): 168-172. http://hwjs.nvir.cn/article/id/hwjs201702011

    SUN Miaomiao, JIANG Yuanyuan, LI Zhenbi, et al. Image segmentation method for transmission lines based on image stitching and frame difference[J]. Infrared Technology, 2017, 39(2): 168-172. http://hwjs.nvir.cn/article/id/hwjs201702011

    [8] 张卓彤, 郑娇娇. 立体影像直线特征提取的现状与展望[J]. 电子测量技术, 2021, 44(11): 45-50.

    ZHANG Zhuotong, ZHENG Jiaojiao. Current status and prospects of straight line feature extraction in stereo images[J]. Electronic Measurement Technology, 2021, 44(11): 45-50.

    [9]

    ZHAO Wenbo, QING Dong, ZUO Zhengli. A method combining line detection and semantic segmentation for power line extraction from unmanned aerial vehicle images[J]. Remote Sens., 2022, 14: 1367.

    [10] 危双丰, 黄帅, 曹文博, 等. 基于航拍影像的输电线路绝缘子识别及缺陷检测[J]. 工程勘察, 2020, 48(4): 39-43, 71.

    WEI Shuangfeng, HUANG Shuai, CAO Wenbo, et al. Identification and defect detection of transmission line insulators based on aerial images [J]. Engineering Surveying, 2020, 48(4): 39-43, 71.

    [11]

    ZHAO Le, WANG Xianpei, YAO Hongtai, et al. Power line extraction from aerial images using object-based Markov random field with anisotropic weighted penalty[J]. IEEE Access, 2019, 7: 125333-125356.

    [12] 张从新, 赵乐, 王先培. 复杂地物背景下电力线的快速提取算法[J]. 武汉大学学报: 工学版, 2018, 51(8): 732-739.

    ZHANG Congxin, ZHAO Le, WANG Xianpei. Fast extraction algorithm for power lines in complex terrain backgrounds[J]. Journal of Wuhan University: Engineering Edition, 2018, 51(8): 732-739.

    [13]

    Lewis Baker, Steven Mills, Tobias Langlotz, et al. Power line detection using Hough transform and line tracing techniques[C]//Power Line Detection Using Hough Transform and Line Tracing Techniques, 2016: DOI: 10.1109/IVCNZ.2016.7804438.

    [14] 李昭慧, 寇鸽子. 基于改进的Deeplabv3+的红外航拍图像架空导线识别算法[J]. 红外与激光工程, 2022, 51(11): 181-189.

    LI Zhaohui, KOU Gezi. Overhead wire identification algorithm in infrared aerial images based on improved Deeplabv3+ [J]. Infrared and Laser Engineering, 2022, 51(11): 181-189.

    [15] 胡广亮. 基于双目视觉的输电线缆识别与定位关键技术研究[D]. 南京: 南京航空航天大学, 2021.

    HU Guangliang. Research on Key Technologies for Identification and Localization of Transmission Cables Based on Binocular Vision[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2021.

    [16] 刘嘉玮, 李元祥, 龚政, 等. 全卷积网络电线识别方法[J]. 中国图象图形学报, 2020, 25(5): 956-966.

    LIU Jiawei, LI Yuanxiang, GONG Zheng, et al. Wire identification method using fully convolutional networks[J]. Journal of Image and Graphics, 2020, 25(5): 956-966.

    [17]

    Ratnesh Madaan, Daniel Maturana, Sebastian Scherer. Wire detection using synthetic data and dilated convolutional networks for unmanned aerial vehicles[C]//2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2017: 3487-3494.

图(13)  /  表(2)
计量
  • 文章访问数:  38
  • HTML全文浏览量:  6
  • PDF下载量:  14
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-07-20
  • 修回日期:  2023-09-03
  • 刊出日期:  2024-12-19

目录

/

返回文章
返回