Infrared Detection of Defects in Aircraft Composite Materials Based on Improved YOLOv7-FSE Algorithm
-
摘要:
针对飞机复合材料缺陷红外图像分辨率较低、检测精度不高等导致缺陷特征难以准确表征的问题,本文提出了一种YOLOv7-FSE(YOLOv7 FReLU-SiLU-EIOU)的改进检测算法。该算法首先将YOLOv7中SiLU激活函数替换为漏斗激活函数FReLU,提高对缺陷特征的空间敏感性。然后使用SPD-Conv(Space to depth Convolution)卷积改进特征提取方式,提升算法对低分辨率红外图像缺陷复杂特征的表征能力。最后将EIOU损失函数替代CIOU损失函数,通过优化边界框识别权重使其聚焦于生成更高质量锚框提升整体检测性能。对比结果表明,本算法相较于其他检测方法如Faster-RCNN、YOLOv3的mAP精度值分别提高10.8%、10.1%。与YOLOv7算法相比,YOLOv7-FSE算法的P精确度由88.3%提高到94.9%,mAP由90.1%提高到97.7%。该算法可应用在飞机表面复合材料缺陷的红外检测中,在结合搭载嵌入式设备开展快速检测方面具有潜在应用前景。
-
关键词:
- YOLOv7-FSE /
- 复合材料缺陷 /
- 红外检测 /
- 低分辨率 /
- mAP精度
Abstract:This study proposes an improved detection algorithm, YOLOv7-FSE (YOLOv7 with FReLU-SiLU-EIOU enhancements), to address the challenges of low resolution and poor detection accuracy in infrared images of composite material defects in aircraft. These limitations make it difficult to accurately characterize defect features. The proposed algorithm introduces several key modifications to the original YOLOv7 architecture. First, the SiLU activation function is replaced with the funnel activation function FReLU to improve spatial sensitivity to defect features. Subsequently, space-to-depth convolution (SPD Convolution) is employed to improve the feature extraction process, thereby enhancing the algorithm's ability to characterize complex defect features in low resolution infrared images. Finally, the EIOU loss function is replaced by the CIOU loss function, and the boundary box recognition weights are optimized to generate higher quality anchor boxes, further improving overall detection performance. Comparison results demonstrate that YOLOv7-FSE outperforms traditional detection methods such as Faster RCNN and YOLOv3. Specifically, it achieves a mean average precision (mAP) improvement of 10.8% over Faster R-CNN and 10.1% over YOLOv3. Compared to the original YOLOv7, the precision (P) increases from 88.3% to 94.9%, while the mAP rises from 90.1% to 97.7%. The YOLOv7-FSE algorithm is well-suited for infrared detection of composite material defects on aircraft surfaces and holds significant potential for integration with embedded devices for rapid, on-site defect detection.
-
Keywords:
- YOLOv7-FSE /
- defects in composite materials /
- infrared detection /
- low resolution /
- mAP
-
0. 引言
复合材料目前在航空航天领域已得到广泛应用,民用航空大规模应用碳纤维复合材料的商用飞机,如A320,B737等机型,新型复合材料使机身重量比传统铝材轻了20%。复合材料在民用航空器上的使用在得到充分验证后得到大量应用,空客A-350使用了52%的复合材料,B787客机的复合材料用量占比达到50%,国产C919的复合材料使用占比到达了12%~15%[1-2]。大量复合材料在制造和服役过程中不可避免会产生缺陷,对在役飞机具有严重危害和威胁,因此必须进行定期检测。在机身缺陷检测维修时需要更快捷准确的检测方法,比如非接触式的复合材料缺陷无损检测技术吸引了很多研究者的关注[3-5]。红外图像检测具有非接触性、适用面广、检测速度快等优点,已成为目前针对飞机复材表面缺陷非接触式检测的重要方法之一,在无损检测领域红外图像检测技术已受到越来越多的关注和应用[6-7]。传统的复合材料检测多为人工巡检,工作效率较低,随着无人机的发展和深度学习在检测相关方面的应用越来越广泛,采用无人机对飞机表面进行快速巡检并对缺陷进行实时识别将成为未来发展趋势。
在深度学习的目标检测算法中,YOLOv7是一种具备快速、轻量等特点的单阶段算法,可实现对图像进行特征提取后使用检测框在图像中标记出检测对象[8]。然而,因红外成像分辨率限制的影响以及小目标的特征不明显、噪声和背景较复杂等因素导致对检测框位置对分辨率较低红外图片的定位精度较低,同时由于温差较小和环境色温对比度较低导致图像细节信息模糊等问题。针对以上问题,Zhou等人[9]针对低分辨率红外图像,建立了基于YOLOv7的Conv Next多尺度特征提取网络,抑制红外复杂背景。Cao等人[10]提出基于YOLOv7的语义分割算法,使用网络分割技术对目标进行分割,能减少图像背景对目标区域的影响,有效提升了检测精度。Zhang等人[11]通过添加专用于特定目标的检测层并替换解耦头来增加缺陷分类精度,并且改进损失函数提高回归精度。Huang等人[12]改进了YOLO骨干网络的连接方式,增加了网络层间的卷积层密度,通过增加卷积层来拓展尺度区域的利用率提高对特征信息的获取能力。已有研究表明,YOLOv7算法常常会存在因细节特征提取不足导致学习效率低和学习精度不足等问题,在提高检测效率和检测精度、降低背景干扰以及特性信息提取等方面仍有改进的空间,值得进一步研究。本文针对飞机复合材料红外缺陷图像分辨率较低导致识别精度低的问题,开展基于YOLOv7改进算法的研究以提升复合材料缺陷红外检测精度。
1. YOLOv7算法的改进
1.1 YOLOv7-FSE网络
本文针对低分辨率红外图像的特征信息捕获能力较低、检测精度不足的问题进行了改进。改进后的YOLOv7-FSE模型网络结构如图 1所示。首先将CBS改进成了包含激活函数FReLU的新CBF模块,可提高卷积网络的感受野;然后通过在YOLOv7的Neck层中加入SPD-Conv模块,有效提高了网络对特征的提取能力;最后使用EIOU损失函数优化边界框回归,提高损失精度。
将CBS中的SiLU换成了FReLU,输入的图像经改进后的CBF模块负责提取特征、ELAN和池化模块(MP)的组合学习并将各层的特征进行拼接。CBF将输入特征图经卷积层提取特征、BN归一化操作后FReLU对前两步操作结果进行非线性加权转换,将SiLU换为FReLU能提高网络对特征信息的获取能力。网络中有大量的跨步卷积操作会导致特征信息丢失,通过使用SPD-Conv结构替代原跨步卷积结构从而减少在池化过程中造成的特征信息丢失。SPD-Conv模块增加特征识别维度并提高了获取信息的丰富度和细粒度,最后使用EIOU作为损失函数优化了预测目标边界框高宽损失和真实边界框的高宽值,减小重合框带来的影响,进一步提升检测目标精度。
1.2 激活函数FReLU
在神经网络中,输入的特征经过加权操作由激活函数引入非线性特性,以此增强模型表达能力。原版YOLOv7的SiLU激活函数表达式如下:
$$ \operatorname{Silu}(x)=x \times \operatorname{sigmoid}(x) $$ (1) 针对分辨率低的红外图像检测存在空间不敏感的问题,FReLU通过增加空间条件来改进了ReLU的图像视觉性能,FReLU损失函数[13]在ReLU和PReLU的基础上采用了二维漏斗条件(Funnel Condition),定义为T(x)。其表示更高效连接上下文空间特征的提取器,在激活时增加空间条件。因此本文使用FReLU替换原来YOLOv7中的SiLU激活函数,其原理如图 2所示。
通过使用空间条件可使ReLU和PReLU扩展成为具备像素级建模能力的可视化参数激活函数,以提高检测空间敏感性。FReLU的定义式如下:
$$ T\left(x_c, i, j\right)=x_c{ }^w, i, j \cdot p_c{ }^w $$ (2) $$ f{\it{(}}{x_c}, i, j{\it{)}} = \max {{(}}{x_c}, i, j, T{\it{(}}{x_c}, i, j{{)}}{{)}} $$ (3) 式中:xcw, i, j以二维空间上的点(i, j)为像素中心将第c个通道上的非线性激活函数f作为输入像素的参数化池化窗口;pcw为这个参数窗口上的像素在同一通道中共享的系数。FReLU主要解决SiLU在感受野提取特征时空间不敏感的问题。
1.3 SPD-Conv卷积
在图像分辨率较低的图像检测任务中,常用的卷积和池化层组合用于提取特征,信息的维度不足,导致分辨率较低图像的细粒度不足以及因失真而使网络对较模糊的缺陷难以有效检测。本文采用SPD-Conv(Space to depth Convolution)[14]卷积模块来解决这个问题。SPD-Conv使用了空间到深度层卷积和一个非步长卷积(None-stride conv)来代替原网络卷积层中的步长卷积(stride conv)和池化层(poling)。空间到深度卷积层拓展了多个通道卷积,每个通道专注于特定特征的获取可在不同尺度上拓宽感受野得到子特征图。SPD-Conv模块的原理如图 3所示。
SPD-Conv在Neck层中对特征维度进行拆分,将中间特征图划分为若干子特征图,再对划分后得到的子特征图通过池化操作进行下采样以降低特征的维度并保留有效信息。当尺度设定为2时,划分得到4个子特征图,这4个子特征图相比与原来两个尺度划分后的特征图增加了2倍的特征信息量并减小了数据的空间维度。子特征图沿通道维度使用拼接操作得到新的特征图,再将此值输出到预测结果,至此完成由缺陷特征信息到特征图的过程。由于在卷积操作时不改变特征信息的步长,所以能保留重要的缺陷特征信息,提高对低分辨率图像缺陷的解析能力。
1.4 边界框损失函数EIOU
算法使用损失函数评估模型的预测值与真实值的差异,原版YOLOv7中使用的损失函数为CIOU[15]。CIOU损失函数增加了纵横比的计算,但纵横比描述的是相对值,未考虑样本检测框大小不平衡问题,导致收敛速度较慢,精度也较低。CIOU损失函数的定义式如下:
$$ {L_{{\text{CIOU}}}} = 1 - {\text{IOU}} + \frac{{{p^2}\left( {b, {b^{{\text{gt}}}}} \right)}}{{{c^2}}} + av $$ (4) $$ \alpha = \frac{v}{{\left( {1 - {\text{IOU}}} \right) + v}} $$ (5) $$ v = \frac{4}{{{{{\rm{ \mathsf{π}}}}^2}{{\left( {\arctan \frac{{{w^{{\text{gt}}}}}}{{{h^{{\text{gt}}}}}} - \arctan \frac{w}{h}} \right)}^2}}} $$ (6) 式中:b、bgt分别代表了预测框和真实框的中心点;且p代表的是计算两个中心点间的欧式距离。c代表同时包含预测框和真实框的最小闭包区域的对角线距离。α代表权重,v度量长宽比的相似性,即纵横比值。
原版YOLOv7中的损失函数CIOU在描述检测框位置的时收敛速度较慢,且当CIOU高质量的锚框占比低于低质量的锚框时,质量较低的样本会产生较大的梯度影响训练收敛过程。EIOU在CIOU的基础上分别计算宽高的差异值取代了纵横比,有利于提高收敛速度和检测精度。EIOU损失函数的定义如下:
$$ {L_{{\text{EIOU}}}} = 1 - {\text{IOU}} + \frac{{{p^2}\left( {b, {b^{{\text{gt}}}}} \right)}}{{{{\left( {{w^c}} \right)}^2} + {{\left( {{h^c}} \right)}^2}}} + \frac{{{p^2}\left( {w, {w^{{\text{gt}}}}} \right)}}{{{{\left( {{w^c}} \right)}^2}}} + \frac{{{p^2}\left( {h, {h^{{\text{gt}}}}} \right)}}{{{{\left( {{h^c}} \right)}^2}}} $$ (7) 式中:wc和hc是覆盖两个box的最小外接框的宽度和高度。
2. 数据集与评价指标
2.1 数据集介绍
目前缺少飞机表面复合材料红外图像的开源数据,因此本文针对飞机复合材料蒙皮缺陷使用红外摄像仪拍摄制作数据集。红外拍摄图片是热感应成像因此其分辨率比较低,经放大后会使分辨率进一步降低。本文数据集采集低分辨率红外图像,该成像效果较模糊。采集红外图像的仪器为Fluke Tix 650红外热成像仪,温度测量范围为-40℃~2000℃。原始拍摄的数据进行了数据处理,处理方法包括色彩调整、引入噪声、过曝等。数据集分为训练集和验证集,训练集和验证集共1046张图像,测试集为另外拍摄的飞机其他部位的缺陷图像共210张。
2.2 实验环境
本文使用Windows10作为实验环境,CPU使用Intel Core i5-13600KF 3.2 GHz处理器,GPU型号为NVIDIA RTX A4000,显存容量为16 GB,Pytorch版本为1.8.0,使用Adam优化器,CUDA版本为11.8,GPU加速库CUDNN版本为8.6.0。
2.3 评价指标
模型的评价指标主要是精确度P(Precision)和平均精度均值(mAP)。精度指标是从正负样本的角度进行评估,表示预测的精确度,公式如下:
$$ {\text{Precision}} = \frac{{{\text{TP}}}}{{{\text{TP}} + {\text{FP}}}} $$ (8) 式中:TP(True positive)和FP(False positive)的预测值都为正样本,但FP的预测值和真实值不同,包括漏检和错误预测情况。TP为缺陷预测结果正确的情况,TP+FP为预测结果为所有正样本,二者的比值为精确度P。正负样本通过交并比(IOU)的值划分,IOU是预测框与真实框重叠部分的面积与两框总面积之比。本文的IOU阈值为0.5,当IOU值大于0.5便判定为正样本。FN(False Negative)表示预测为负样本。
平均精度均值(mAP)综合了在不同缺陷分类情况下的检测精度,通过对所有类的AP(平均精度)值取平均,反映算法的准确率情况。AP和mAP的计算公式如下所示:
$$ {\text{AP}} = \frac{{{\text{TP + TN}}}}{{{\text{TP + FN + TN + FP}}}} $$ (9) $$ {\text{mAP}} = \frac{{\sum\limits_{n = 1}^{{\text{class}}} {{\text{AP}}(n)} }}{{{\text{TP + FN + TN + FP}}}} $$ (10) 式中:TN(True Negative)表示预测值是负样本,但缺陷检测正确的情况。对P和R取平均值时可能随着某个值的较大波动而影响评估结果,使用F1分数(F1-score)对精确度和召回率进行调和。其公式如下所示:
$$ {F_1} = \frac{{2PR}}{{P + R}} $$ (11) 3. 实验与结果分析
3.1 激活函数对比实验
为获得不同激活函数对算法精度的影响,本文设置了激活函数对比实验,实验结果如表 1所示。
表 1 激活函数对比实验Table 1. Comparison experiment of activation functionsTypes of activation functions mAP/% FReLU 92.4 GELU 91.7 SiLU 90.1 SiLU激活函数对空间不敏感,对激发特征信息提取阈值的不敏感导致漏检部分信息。FReLU具备的增强空间灵敏度能力改善了检测图像视觉性能,通过实验结果可得出使用FReLU激活函数能提高检测的精度。如表 1所示,其检测精度相比原SiLU提高了2.3%,相比GELU高0.7%,说明FReLU具有的空间激活能力,对特征信息的提取更加丰富,更丰富的特征信息能提高算法的精度,故本文使用FReLU替换掉SiLU作为激活函数。
3.2 损失函数对比实验
本文为分析不同损失函数改进对模型精度和收敛性的效果,使用两种损失函数改进方案进行实验并与原损失函数进行对比。损失函数的损失值和精度实验结果如图 4所示。
图 4(a)三条曲线分别表示不同损失函数的目标边界框损失和损失值。从图 4(a)中结果可知,ObjLoss的3条曲线都在200轮训练后趋于收敛,但损失精度和收敛速度有差距。原因是CIOU损失函数对检测框的大小变化较敏感,在计算损失值时需计算检测框的纵横比,导致在检测时CIOU可能会更聚焦于检测框的变化而不是缺陷,本文缺陷中有较大的冲击损伤缺陷也有较小的划痕缺陷,检测缺陷时检测框变化较大,低分辨率红外图像缺陷特征位置的模糊背景也会对检测框造成干扰,故在计算损失值时产生较大的波动。EIOU损失函数通过优化预测目标边界框高宽损失和真实边界框的高宽值的差异,提高检测框对目标的检测准确度,使EIOU对目标检测目标的损失值LOSS更小,损失迭代过程中的波动也更稳定。所以EIOU损失函数的收敛性较SIOU和CIOU都更好[16-17]。由(b)中可知EIOU的精度值也最高,精度曲线完全包络了另两种损失函数的精度,故本文使用EIOU损失函数代替原边界框损失函数。
3.3 消融实验
本文针对原版YOLOv7提出三步改进方案,具体为:算法A为原版YOLOv7网络,算法B改进了激活函数FReLU,算法C在算法B的基础上引入了SPD模块,本文算法改进了激活函数、SPD模块和EIOU损失函数。不同算法如表 2所示。
表 2 不同算法对比Table 2. Comparison of different algorithmsAlgorithm Improve module FReLU SPD-Conv EIOU Algorithm A × × × Algorithm B × × √ Algorithm C × √ √ Our algorithm √ √ √ 本文通过设计叠加每一步改进方法的消融实验来验证分析。评价算法模型改进效果的参数有Precision、mAP和F1分数和运算量大小(Flops),消融实验的结果如表 3所示。
表 3 消融实验结果Table 3. Results of ablation experimentAlgorithm Precision/% mAp@0.5/% F1 Score/% Flops/G Algorithm A 88.3 90.1 89.6 101.6 Algorithm B 90.6 93.1 91.8 102.2 Algorithm C 93.8 95.9 92.7 104.3 Our algorithm 94.9 97.7 94.4 104.3 从消融实验结果可以发现,与原版YOLOv7模型相比,加入EIOU损失函数模块后,使其mAP、Precision、F1分数等指标分别提高了3%,2.3%和2.2%。这是由于EIOU损失函数的焦点损失回归特性使回归过程更专注于聚焦图像高质量的锚框,提升了检测精度。SPD-Conv模块弥补了低分辨率图像细粒度不足导致特征信息量不足对精度造成的影响,拓展的多个通道提升了在不同尺度上图像信息的获取能力,其mAP值相比于上一改进模型提升了2%,Precision提升了2.9%。另外,通过加入激活函数FReLU后发现,mAP提高了2.6%。这是因为相较于原SiLU激活函数,FReLU具有像素层面的激活能力,对图像中缺陷部位进行像素维度层面的激活操作,提高了对缺陷的空间敏感程度。因此,在没有增大运算量的基础上,改进后的模型相较于原版YOLOv7模型P精确度提高了6.6%,mAP提升了7.6%,F1分数提高了4.3%。
3.4 算法对比研究
实验通过对比目前使用较多的目标检测算法进行对比实验,如Fast-Rcnn、YOLOv3、YOLOv5、EfficientDet等检测算法。对比的实验结果如表 4所示。
表 4 算法对比实验Table 4. Algorithm comparison experimentModel Precision/% mAP/% Fast R-CNN 87.3 86.9 YOLOv3 85.8 87.6 YOLOv5M 87.9 88.5 YOLOv5L 88.5 90.6 YOLOv7 88.3 90.1 Efficient Det 90.3 92.4 Ours 94.9 97.7 由表 4中数据可知,改进后的YOLOv7-FSE算法的mAP精度达到了97.7%,相较于Fast R-CNN[18]、YOLOv3[19]、YOLOv5M[20]、YOLOv7[21]、YOLOv5L[22]和EfficientDet[23]等算法分别提高了10.8%、10.1%、9.2%、7.6%、7.1%、5.3%。同时,改进后的YOLOv7-FSE算法的Precision精确度达到了94.9%,相比于YOLOv3、Fast R-CNN、YOLOv5M、YOLOv5L、YOLOv7和EfficientDet等算法分别提高了9.1%、7.6%、7.0%、6.6%、6.4%、46%。通过实验对比数据表明本文算法对复合材料缺陷检测结果有较明显的提升。可以发现,本文的算法相较原版YOLOv7的检测精度有较大提升,这说明本文对模型的改进效果是非常显著的。
3.5 实验验证研究
本文对改进后的检测效果进行验证实验,检测效果对比如图 5所示。
检测效果图中的检测识别率如表 5所示。
表 5 原版YOLOv7与改进YOLOv7-FSE的检测识别率Table 5. Test results of original YOLOv7 and improved YOLOv7-FSEAlgorithm Long scratches Short scratches Impact damage Flow damage YOLOv7 0.34 0.34 0.73 0.40 YOLOv7-FSE 0.81 0.86 0.93 0.69 改进后的YOLOv7-FSE算法对长划痕的检测识别率从0.34提高到了0.81,短划痕的检测识别率从0.34提高到了0.86,冲击损伤缺陷的检测识别率从0.73提高到了0.93,微裂纹缺陷的检测识别率从0.40提高到了0.69。检测识别率的整体提升是由于FReLU激活函数的线性激活作用获得了丰富更多的特征信息,SPD-Conv模块改善了特征提取的方式,其空间到深度的卷积结果能确保学习更多的细节信息,EIOU优化了损失框性能,降低背景对目标的干扰。因此,多步改进协同联合实现了检测的精确度的整体提升。
4. 结论
本文提出了YOLOv7-FSE的改进算法,通过改进卷积模块引入FReLU漏斗激活函数提高卷积层对空间特征的学习能力和像素级别的激活能力,对输入的特征覆盖更多的非线性输出信息。使用SPD-Conv模块增加特征识别维度并提高了获取信息的丰富度,增强对特征信息的解析能力。最后引入EIOU损失函数改进模型边界框损失回归特性,减小检测框纵横比变化带来的损失误差,提高检测的精准度。通过消融实验验证每一步改进方法对精度的提升效果,并在实际检测应用中效果提升明显。这对于无人机搭载红外摄像仪对飞机蒙皮复合材料进行定点环绕拍摄巡检以及可嵌入式设备部署红外图像缺陷实时检测有重要的应用前景。
-
表 1 激活函数对比实验
Table 1 Comparison experiment of activation functions
Types of activation functions mAP/% FReLU 92.4 GELU 91.7 SiLU 90.1 表 2 不同算法对比
Table 2 Comparison of different algorithms
Algorithm Improve module FReLU SPD-Conv EIOU Algorithm A × × × Algorithm B × × √ Algorithm C × √ √ Our algorithm √ √ √ 表 3 消融实验结果
Table 3 Results of ablation experiment
Algorithm Precision/% mAp@0.5/% F1 Score/% Flops/G Algorithm A 88.3 90.1 89.6 101.6 Algorithm B 90.6 93.1 91.8 102.2 Algorithm C 93.8 95.9 92.7 104.3 Our algorithm 94.9 97.7 94.4 104.3 表 4 算法对比实验
Table 4 Algorithm comparison experiment
Model Precision/% mAP/% Fast R-CNN 87.3 86.9 YOLOv3 85.8 87.6 YOLOv5M 87.9 88.5 YOLOv5L 88.5 90.6 YOLOv7 88.3 90.1 Efficient Det 90.3 92.4 Ours 94.9 97.7 表 5 原版YOLOv7与改进YOLOv7-FSE的检测识别率
Table 5 Test results of original YOLOv7 and improved YOLOv7-FSE
Algorithm Long scratches Short scratches Impact damage Flow damage YOLOv7 0.34 0.34 0.73 0.40 YOLOv7-FSE 0.81 0.86 0.93 0.69 -
[1] 秦艳利, 孙博慧, 张昊, 等. 选区激光熔化铝合金及其复合材料在航空航天领域的研究进展[J]. 中国激光, 2021, 48(14): 1402002. QIN Y L, SUN B H, ZHANG H, et al. Research progress on selective laser melting of aluminum alloys and their composite materials in the aerospace field[J]. Chinese Journal of Lasers, 2021, 48(14): 1402002.
[2] 徐丽, 张幸红, 韩杰才. 航空航天复合材料无损检测研究现状[J]. 材料导报, 2005(8): 79-82. XU L, ZHANG X H, HAN J C. Research status of non-destructive testing of aerospace composite materials[J]. Materials Introduction, 2005(8): 79-82.
[3] LIU B W, XIANG H X, ZHONG M, et al. Detection of depth-dependent defects in carbon-fiber-reinforced polymer composites by terahertz time-domain spectroscopy[J]. Russian Journal of Nondestructive Testing, 2021, 57(5): 417-422. DOI: 10.1134/S1061830921050065
[4] ZHONG M, LIU B W, LI C, et al. Terahertz spectroscopy and imaging detection of defects in civil aircraft composites[J]. Journal of Spectroscopy, 2020, 2020: 2312936.
[5] 刘增华, 吴育衡, 王可心, 等. 基于太赫兹时域光谱技术的陶瓷基复合材料缺陷检测成像研究[J]. 机械工程学报, 2023, 59(14): 33-42. LIU Z H, WU Y H, WANG K X, et al. Research on defect detection and imaging of ceramic matrix composites based on terahertz time-domain spectroscopy[J]. Journal of Mechanical Engineering, 2023, 59(14): 33-42.
[6] BAO C, CAO J, HAO Q, et al. Dual-YOLO architecture from infrared and visible images for object detection[J]. Sensors, 2023, 23(6): 2934-2942. DOI: 10.3390/s23062934
[7] Kabouri A, Khabbazi A, Youlal H. Applied multiresolution analysis to infrared images for defects detection in materials[J]. NDT & E International, 2017, 92: 38-49.
[8] ZHANG J, WEI X, ZHANG L, et al. YOLO v7-ECA-PConv-NWD detects defective insulators on transmission lines [J]. Electronics, 2023, 12(18): 3969. DOI: 10.3390/electronics12183969
[9] ZHOU J, ZHANG B, YUAN X, et al. YOLO-CIR: The network based on YOLO and ConvNeXt for infrared object detection[J]. Infrared Physics & Technology, 2023, 131: 104703.
[10] CAO L, ZHENG X, FANG L. The semantic segmentation of standing tree images based on the YOLOv7 deep learning algorithm[J]. Electronics, 2023, 12(4): 929-936. DOI: 10.3390/electronics12040929
[11] ZHANG L, XIONG N, PAN X, et al. Improved object detection method utilizing YOLOv7-Tiny for unmanned aerial vehicle photographic imagery[J]. Algorithms, 2023, 16(11): 520-531. DOI: 10.3390/a16110520
[12] HUANG Z, WANG J, FU X, et al. DC-SPP-YOLO: Dense connection and spatial pyramid pooling based YOLO for object detection[J]. Information Sciences, 2020, 522: 241-258. DOI: 10.1016/j.ins.2020.02.067
[13] Diwan T, Anirudh G, Tembhurne J V. Object detection using YOLO: Challenges, architectural successors, datasets and applications[J]. Multimedia Tools and Applications, 2023, 82(6): 9243-9275. DOI: 10.1007/s11042-022-13644-y
[14] LI J, YE J. Edge-YOLO: Lightweight infrared object detection method deployed on edge devices [J]. Applied Sciences, 2023, 13(7): 4402-4413. DOI: 10.3390/app13074402
[15] JIANG C, REN H, YE X, et al. Object detection from UAV thermal infrared images and videos using YOLO models[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 112(3): 102912-102925.
[16] LI L, JIANG L, ZHANG J, et al. A complete YOLO-based ship detection method for thermal infrared remote sensing images under complex backgrounds[J]. Remote Sensing, 2022, 14(7): 1534-1535. DOI: 10.3390/rs14071534
[17] WEI Xuan, WEI Yun, LU Xiaobo. HD-YOLO: Using radius-aware loss function for head detection in top-view fisheye images[J]. Journal of Visual Communication and Image Representation, 2023, 90(3): 103715-103723.
[18] JIANG D, LI G, TAN C, et al. Semantic segmentation for multiscale target based on object recognition using the improved Faster-RCNN model[J]. Future Generation Computer Systems, 2021, 123: 94-104. DOI: 10.1016/j.future.2021.04.019
[19] JU M, LUO H, WANG Z, et al. The application of improved YOLOv3 in multi-scale target detection[J]. Applied Sciences, 2019, 9(18): 3775. DOI: 10.3390/app9183775
[20] 孔松涛, 徐甄泽, 林星宇, 等. 基于改进YOLOv5算法的光伏组件红外热成像缺陷检测[J]. 红外技术, 2023, 45(9): 974-981. http://hwjs.nvir.cn/article/id/878e48bf-ac95-4d63-83ec-644f8885d842 KONG S T, XU Z Z, LIN X Y, et al. Infrared thermal imaging defect detection of photovoltaic modules based on improved YOLOv5 algorithm[J]. Infrared Technology, 2023, 45(9): 974-981. http://hwjs.nvir.cn/article/id/878e48bf-ac95-4d63-83ec-644f8885d842
[21] DU S, ZHANG B, ZHANG P, et al. FA-YOLO: An improved YOLO model for infrared occlusion object detection under confusing background[J]. Wireless Communications and Mobile Computing, 2021, 2021: 1-10.
[22] 孙建波, 王丽杰, 麻吉辉, 等. 基于改进YOLOv5s算法的光伏组件故障检测[J]. 红外技术, 2023, 45(2): 202-208. http://hwjs.nvir.cn/article/id/78e76f62-17bc-444b-bac5-c2bffbef819f SUN J B, WANG L J, MA J H, et al Fault detection of photovoltaic modules based on improved YOLOv5s algorithm[J]. Infrared Technology, 2023, 45(2): 202-208. http://hwjs.nvir.cn/article/id/78e76f62-17bc-444b-bac5-c2bffbef819f
[23] MAO F, JING L, JIAN Y, et al. A grain boundary defects detection algorithm with improved localization accuracy based on efficient det[J]. Automatic Control and Computer Sciences, 2023, 57(1): 81-92.
-
期刊类型引用(29)
1. 姬谕,丁朋,刘楠,茹占强,李振曜,程素珍,王争光,龚精武,殷志珍,吴菲,宋贺伦. 基于改进SURF的低照度图像拼接方法. 激光与光电子学进展. 2024(18): 449-459 . 百度学术
2. 王正家,吴春林,柯黎明,陈文重,刘城逍. 基于Harris图像拼接的全景视频稳像算法. 红外技术. 2022(11): 1203-1209 . 本站查看
3. 李闯. 虚拟现实中图像合成信息同步采集方法研究. 计算机仿真. 2021(01): 316-320 . 百度学术
4. 苍雁飞,寇俊敏. 组合式建筑立面全景图像的渐晕校正. 计算机仿真. 2021(01): 321-325 . 百度学术
5. 杨济瑞,张晓燕,罗攀. 基于图像匹配的特征点检测方法综述. 电子测试. 2021(06): 53-54+92 . 百度学术
6. 黄凯宁,郭有强,杨静. 大数据挖掘技术的光流场图像匹配方法设计. 激光杂志. 2021(05): 107-111 . 百度学术
7. 陈雪松,雷嫚,毕波,唐锦萍. 一种改进的OSID的图像匹配算法. 计算机工程与科学. 2021(06): 1032-1040 . 百度学术
8. 孙新博,孙芹芹,李英成,肖金城. 无人机红外影像拼接方法研究. 测绘科学. 2021(06): 109-113+120 . 百度学术
9. 赵谦,童申鑫,贺顺,尹怡晨. 改进的SURF-RANSAC图像匹配算法. 计算机工程与设计. 2021(10): 2902-2909 . 百度学术
10. 常奇志,王志琼,兰华,翁小辉. 街景动态图像虚拟拼接仿真方法研究. 计算机仿真. 2021(11): 394-398 . 百度学术
11. 王锦坤,张秋菊. 上甑机器人构型及其多点图像采集系统研究. 机械设计与制造工程. 2020(05): 31-36 . 百度学术
12. 夏磊,胡欣宇,岳亚伟,薛晓琴. 基于改进SURF算法的红外图像拼接. 物联网技术. 2020(06): 48-51 . 百度学术
13. 杨蕊,李雪. 基于显著特性的红外全景图像拼接. 激光杂志. 2020(06): 98-101 . 百度学术
14. 王可庆. 基于边缘检测的图像分割的超声诊断机器人控制系统设计. 计算机测量与控制. 2020(07): 117-120+126 . 百度学术
15. 杨敏,唐思源,白金牛. 基于光流场模型的医学图像弹性配准. 激光杂志. 2020(07): 104-108 . 百度学术
16. 许林,孟娜,袁静,吴丹. 基于边缘检测和图像分割的超声诊断机器人控制系统设计. 计算机测量与控制. 2020(08): 125-129 . 百度学术
17. 徐娜,郭广通. 基于红外结构光的交互手势变形跟踪识别方法. 激光杂志. 2020(08): 72-76 . 百度学术
18. 燕耀,雷桐,赵曦. 复杂场景下动画图像轮廓特征匹配拼接仿真. 计算机仿真. 2020(08): 202-205+218 . 百度学术
19. 郭泓邑,张红民,李萍萍. 一种视差伪影最小化的视频拼接方法. 计算机工程与应用. 2020(20): 186-190 . 百度学术
20. 张华. 基于DDTW的非线形建筑数字图像形貌拼接仿真. 计算机仿真. 2020(06): 448-451+470 . 百度学术
21. 朱敏. 基于SURF特征的运动视频图像边缘跟踪方法研究. 内蒙古民族大学学报(自然科学版). 2020(04): 298-303 . 百度学术
22. 金鹏,李旭,徐伟刚,武锡斌. 基于多尺度特征融合的拖牵过程安全预警算法. 传感器与微系统. 2020(11): 137-140 . 百度学术
23. 马宝琰,汤磊,赵晶,何勇军. 风电叶片图像直线特征检测与拼接方法. 哈尔滨理工大学学报. 2020(05): 83-92 . 百度学术
24. 邓朝晖. 基于特征点的舰船图像拼接技术. 舰船科学技术. 2020(22): 46-48 . 百度学术
25. 曾志宏,张凌,余少勇. 基于区域特征的长波红外偏振图像融合. 激光杂志. 2020(12): 65-69 . 百度学术
26. 张兆云,黄世鸿,张志. 机器视觉在无人机巡线中的应用综述. 科学技术与工程. 2020(34): 13949-13958 . 百度学术
27. 王锦坤,张秋菊. 基于SURF算法的红外图像拼接方法的改进. 轻工机械. 2019(03): 66-71 . 百度学术
28. 沈跃,朱嘉慧,刘慧,崔业民,张炳南. 基于彩色和深度信息结合K-means聚类算法快速拼接植株图像. 农业工程学报. 2018(23): 134-141 . 百度学术
29. 张忠华,蒲斌. 基于区域自适应模型耦合向量约束的图像匹配算法. 包装工程. 2018(23): 181-190 . 百度学术
其他类型引用(12)