Nonlinear Data Fitting for Reflective Continuous Heat Excited Thermography Testing
-
摘要: 为了在反射式持续热激励红外热像技术中对缺陷深度进行定量检测,基于实际情况建立了持续热激励下被检物内的热传导模型,并求解了被检物热激励面上的温差-时间关系。通过对求解出的温差-时间关系的分析,发现实际检测时取热激励面温差-时间数据依照所求解出的关系进行非线性曲线拟合,可测量缺陷的深度。为了检验方法的可行性,利用风电叶片玻璃钢制作了平底洞试件,并对平底洞试件进行了检测实验。实验表明,本文方法对缺陷深度具有较高的测量精度。Abstract: To quantitatively detect defects using reflective continuous-heat-excited thermography, a heat conduction model of an object under continuous heat excitation was established, and the temperature increment-time relationship on the thermal excitation surface of the object was derived. Based on an analysis of the temperature increment-time relationship on the thermal excitation surface, the depth of the defects could be measured by nonlinear fitting of the temperature increment-time data. To test the feasibility of this method, a GFRP flat-bottomed hole specimen was fabricated and analyzed using reflective continuous-heat-excited thermography. The results show that this method is highly accurate in measuring the depth of defects.
-
Keywords:
- continuous-heat excited /
- nonlinear data fitting /
- reflective /
- heat conduction
-
0. 引言
相比于可见光摄像机,红外摄像机能够全天时全天候工作,因此在城市交通、军事侦查、视频监控等领域有着广泛的应用[1-2]。
虽然红外图像的目标指示性较强,但受传感器探测性能、目标成像距离、目标几何形状等因素影响,红外图像通常分辨率低,缺乏丰富的边缘和纹理信息,在复杂背景下目标信杂比低[3],故早期的红外图像目标检测算法研究主要集中在弱小目标检测方面[4-5]。主要方法包括基于单帧图像的跟踪前检测方法(detecting before tracking, DBT)和基于序列图像的检测前跟踪方法(tracking before detecting, TBD)。DBT方法[6]主要利用单帧图像中目标-背景的差异信息进行去噪、增强等,通过分割得到目标位置,但是在低信杂比和复杂背景下虚警率较高。TBD方法利用运动目标连续性和相似性进行跟踪检测,可通过目标信息的长时间积累实现目标检测,但是在帧间差异较大时目标检测精度会下降,同时该类算法实时性较差[2]。
随着大数据和深度学习理论和技术的快速发展,基于深度卷积神经网络(convolution neural network, CNN)的目标检测模型在可见光图像目标检测与识别方面取得了远超传统方法的性能。典型的目标检测模型可分为两阶段模型和单阶段模型[7]。以Faster R-CNN[8]为代表的两阶段模型,首先通过区域建议网络筛选候选目标区域,然后在候选目标区域进行目标分类和位置精调。以SSD(single shot multibox detector)[9]和YOLO(You Only Look Once)系列[10]为代表的单阶段模型,根据输出的特征图进行回归,输出目标位置、置信度和类别等信息。虽然单阶段算法具有实时性好的优势,但检测精度比双阶段算法略低。
将深度学习算法和模型应用于红外图像目标检测时,王文秀等人[11]针对传统红外检测算法检测率低、实时性差等问题,采用改进的AlexNet[12]深度网络进行红外船只目标识别,可快速准确地识别出红外船只目标,但该方法并不是一种端到端的方法,需通过分水岭方法提取感兴趣船只区域。针对该问题,蒋志新[13]提出了一种基于改进损失函数的Faster R-CNN海上红外小目标检测方法,其是一种端到端的方法,通过样本分类的难易程度来调节权重,在加快模型训练收敛速度的同时提高了检测精度,但该方法实时性较差,不利于工程实际应用。针对红外目标检测准确率和实时性不足的问题,陈铁明等人[14]提出了一种基于改进YOLO v3的红外末制导目标检测方法。通过半实物仿真的方式获得特种车辆、舰船和飞行器3类目标的红外图像,在自适应学习率与动量法联合优化下,对设计的红外目标数据集进行验证,平均准确率达到了77.89%,检测速度达到25帧/s。针对红外弱小目标检测难题,赵琰等人[15]在对红外目标特性进行分析基础上,通过简化YOLO v3网络的处理流程,提升了对红外弱小目标检测精度,实验使用的数据为包含无人机的红外视频序列。吴双忱等人[16]将对小目标的检测问题转化为对小目标位置分布的分类问题,检测网络由全卷积网络和分类网络组成,其中分类网络通过引入注意力模块(squeeze-and-excitation networks, SENet)[17],致力于解决复杂背景下低信噪比和存在运动模糊的小目标检测难题,取得了较好的检测效果。李慕锴等人[18]将SENet模块引入到YOLOv3骨干网络中的残差模块,提高了骨干网络特征提取能力,实现了复杂场景下红外行人小目标的有效检测,相比原算法实时性不变,误检率显著减低。
基于数据驱动的深度学习方法很大程度上依赖于均衡完备的样本数据,目前公开的数据集以可见光图像为主,主要包括VOC(PASCAL visual object classes)数据集[19]、COCO(microsoft common objects in context)数据集[20]、DOTA(dataset for object detection in aerial images)数据集[21]、DIOR(object detection in optical remote sensing images)[22]、UCAS-AOD[23]等,针对不同数据集的特点均提出了很多有效的改进模型[24]。考虑到红外图像的特点,将应用于可见光图像领域的深度目标检测模型应用于红外图像时,需要做出合理的改进,但首先要解决的就是面向具体应用场景的红外数据集构建问题。
韩国科学技术研究院构建的多光谱行人数据集(KAIST)[25]每张图像包含可见光图像和红外图像两个版本,图像分辨率为640×480,分为person、people和cyclist三个类别,该数据集的主要问题是标签质量较低,需对数据进行重新标注。菲力尔(FLIR)红外数据集[26]图片分辨率为640×512,只包含水平视角下的街道和高速路场景,主要面向自动驾驶汽车应用。OTCBVS(object tracking and classification in and beyond the visible spectrum)红外数据集[27]用于测试和评估先进的计算机视觉算法,包含人脸、车辆、行人和舰船等14种不同场景的图像数据,该数据集中目标相对比较少,且场景较理想化。上述3个数据集的示例图像如图 1所示。
针对监控领域的实际应用需求,本文构建了一个包含行人和车辆的红外目标检测数据集,将其命名为Infrared-PV。该数据集包含十字路口、横向马路两大主场景,包含地铁口、广场、公交站台等不同背景区域。采集的红外图像类型包含白热目标、黑热目标和热力图3种模式,总计包含2138张图像,采用自研图像标注软件实现了VOC格式的标注任务。同时结合主流的深度目标检测模型给出了在该数据集上的检测性能测试基准。该数据集能够为面向监控应用的红外图像目标检测模型优化研究提供一定的数据支撑。
1. Infrared-PV数据集
1.1 数据集构建方式及目标统计信息
使用FLIR公司的Tau2 336长波非制冷红外机芯配备25 mm镜头采集视频数据,对该机芯极性进行控制,包括黑热和白热两种模式,此外还提供热力图模式。采集高度30 m左右,聚焦距离大于250 m,拍摄扫描视角范围为0°~120°,分别在雨天、晴天、白天、夜晚等环境下采集多个场景的视频图像,然后通过3帧/s的下采样率得到分辨率为720×576或640×480的图像,构建的数据集总计包含图片2138张,主要考虑场景中的行人和车辆2类目标,故将该数据集命名为Infrared-PV。不同极性下的样本数量分布如表 1所示,目标示例图像如图 2所示。从图 2可以看出,在不同极性下目标的显著性不同,在黑热极性下,行人和车辆的轮廓信息更加明显。从热力图模式看,行人、车辆目标的底部和发动机部分红外热辐射更高。
表 1 Infrared-PV数据集不同极性图像统计Table 1. Statistics of the number of images with different polarities in infrared-PV datasetImages White-hot target Black-hot target Heat map 2138 1000 838 300 1.2 标注软件及标注信息
使用自研的图像标注软件对构建的Infrared-PV数据集进行人工标注,标注格式为扩展PASCAL VOC格式,保存本地文件为XML格式。设计的软件与Labelme软件类似,支持图片、视频和VOC格式数据集的标注,同时实现了对数据集的统计和数据增强功能,支持目标类别统计、长宽分布统计等,并可检测标注过程中可能存在的漏标、错标等情况。图 3为设计的标注软件界面图,界面上侧为菜单栏,左侧为待标记图像列表,右侧为目标信息显示区域。与Labelme软件不同,研制的标注软件支持以下两方面功能:①通过修改配置文件支持额外语义信息的添加与保存。其中图 3右下角区域为语义信息修改和显示区。某一幅图像对应的目标标注内容如表 2所示,包括文件名、图像分辨率、目标位置和类别信息,以及拍摄日期(date)、拍摄时间(time)、相机极性(polarity)、天气信息(weather)等语义信息。②增量标注功能。在已获得少量标注样本的情况下,通过训练一个基于深度模型的目标检测器,辅助人工标注,降低标注工作量。为测试各检测模型的检测性能,本数据集对部分遮挡度小于50%的目标进行了标注。
表 2 标注信息Table 2. Annotation Information<annotation>
<folder>D: /infrared_all/DVD_162025_0/X2</folder>
<filename>img00009754.jpg</filename>
<path>D: /infrared_all/DVD_162025_0/X2/JPEGImages/img00009754.jpg</path>
<source>
<database>Unknown</database>
</source>
<size>
<width>720</width>
<height>576</height>
<depth>3</depth>
</size>
<segmented>0</segmented>
<polarity>black</polarity>
<date>2019-11-9</date>
<weather>sun</weather>
<time>afternoon</time>
<object>
<name>vehicle</name>
<xmin>328</xmin>
<ymin>402</ymin>
<xmax>488</xmax>
<ymax>521</ymax>
</bndbox>
</object>
</annotation>
<pose>Unspecified</pose>
<truncated>0</truncated>
<difficult>0</difficult>
<bndbox>1.3 目标特性统计分析
图 4为数据集典型场景的示例图像。从图 2和图 4可以看出,黑热极性下行人目标的轮廓更加明显,此时目标对比度高于白热极性情况。热力图图像是场景中目标热辐射的伪彩色显示,在该模式下很难得到目标的轮廓信息。车辆目标包括小轿车、公交车、货车等几种车型,目标尺寸大于行人目标,虽然车辆目标的尺度变化较大,但由于与背景差异显著,故比较容易区分,部分遮挡和目标重叠问题是影响车辆目标检测精度的主要问题。由于是室外场景,数据集中的图像背景比较复杂,包括地铁出入口、交通指示杆和建筑物等其他目标,这会给目标检测算法和模型带来一定挑战,主要体现在虚警方面。
数据集中行人和车辆对应的类别分别为person和vehicle,在整个目标中的占比分别为60.3%和39.7%,如表 3所示。平均单张图片包含20个左右目标,最多单张图片目标数超过100个,说明本红外数据集目标相对比较密集。从图 5(a)和图 5(b)目标尺寸和占比分布可以看出,目标主要分布在150×200大小范围内,其中person类别目标长宽分布在10×20像素~20×50像素不等,车辆分布在40×23像素~200×150像素不等,集中在整幅图像尺寸的10%以下,说明本红外数据集多以中小目标为主。从图 4可以看出,目标相对比较密集,目标间、背景与目标间存在遮挡情况,因此可以用于评估各检测算法或模型的检测性能和适用性,为红外弱小目标检测、红外行人检测、车辆检测与跟踪等研究方向提供一定的数据支撑。Infrared-PV红外目标检测数据集的获取地址为 https://pan.baidu.com/s/1j0gqBrtTjI89s2Mdp6xpEA(提取码:4 ftz)。
表 3 Infrared-PV数据集类别统计Table 3. Category statistics of Infrared-PV datasetClass Person Vehicle Number 27910 18372 2. 主流目标检测模型
2.1 两阶段目标检测模型
以Faster R-CNN为代表的两阶段模型主要由3部分组成,即特征提取网络、候选区域建议网络(region proposal network, RPN)网络和分类回归网络。特征提取网络避免了传统手工设计特征的局限性,能够学习到更有利于目标检测与分类的特征表示。候选区域建议网络用于判别目标和背景区域,这种端到端模型极大提高了目标检测的速度。分类回归网络对候选目标区域进行类别细分类和位置预测的精调。在Faster R-CNN基础上,研究学者提出了很多改进模型,包括Cascade R-CNN[28]、Libra R-CNN[29]、DoubleHead R-CNN[30]等,这些模型显著地提高了通用目标检测精度。
2.2 单阶段目标检测模型
舍弃RPN模块,直接对目标类型和位置进行回归的单阶段模型,能够实现检测精度和推理速度的平衡,逐渐成为研究的热点,其中最具代表性的模型为SSD、YOLO系列。其中YOLOv3[31]已被成功应用于红外目标检测,并取得不错的效果。YOLO v3是单阶段端到端全卷积网络,模型组成如下:以基于ResNet残差网络[32]的darknet53架构作为特征提取网络,拓展了网络的深度,降低了训练难度;采用类似特征金字塔网络(feature pyramid networks, FPN)[33]的思想,加强了高层语义信息对浅层细节特征的指导;多尺度输出层根据预设先验框对像素点进行回归、分类、后处理,提高了中小目标检测率。
基于注意力机制以及优化的特征融合策略,文献[34]提出了YOLO v4模型。v4版本相比于v3版本改进如下:
① 特征提取网络设计方面,使用了加权残差连接、跨阶段局部网络(cross stages partial network, CSPNet),通过加强网络特征融合能力,设计了更优的特征提取网络CSPDarknet53;
② 检测分支设计方面,使用了SPP[35]、FPN、PANet[36]等特征融合策略,通过融合不同尺度的语义信息,提高了中小目标的检测和分类性能;
③ 数据增强方面,综合使用了Cutmix & Mosaic数据增强、DropBlock正则化、类标签平滑、Ciou损失[37]、对抗训练等BoF & BoS(Bags of Freebies & Specials)手段,进一步提高了检测精度。
最新的YOLO v5网络根据网络深度和宽度不同,共包含s、m、l和x四种模型,其中s网络模型结构如图 6所示。YOLO v5模型改进了特征提取网络和特征融合模块,用CSPNet模块代替多层混合卷积,显著降低模型复杂度,联合Mosaic数据增强、自适应图片缩放等手段,不仅保证了检测精度,还消除了模型冗余,大大提高了推理的实时性。其中使用GTX 1080Ti显卡的s模型推理时间低至2.5 ms,在边缘设备上也有很好的检测效果。
3. 实验结果分析
为评估基于深度学习的红外目标检测性能,本文在Infrared-PV数据集上进行了对比实验,构建了用于深度目标检测模型评估的指标,定性和定量分析了各模型在Infrared-PV红外数据集上的性能。
3.1 实验准备
采用的服务器配置如下:CPU为Intel(R) i7-6850K,64 G内存,两块NVIDIA GeForce GTX 1080Ti图形处理器,操作系统为Ubuntu 18.04。所有模型使用双卡分布式训练。
Infrared-PV红外数据集以7:3比例随机划分,其中训练集共1496张图像,测试验证集642张图像。
3.2 检测模型及训练参数
本文使用的基准算法为Faster R-CNN,YOLO v3,YOLO v4,YOLO v5目标检测算法,此外还和Cascade R-CNN、FCOS[38]模型的检测性能进行了对比分析。训练采用的目标检测框架和配置文件如表 4所示。当输入网络的图像分辨率为608×608时,YOLO系列各模型的锚框大小设置如表 5所示。
表 4 模型配置Table 4. Model configurationAlgorithm Framework Configuration file YOLO v3 Darknet-53 yolov3.cfg YOLO v4 Darknet-53 yolov4.cfg YOLO v5(L) yolov5 yolov5l.yaml Faster R-CNN mmdetection faster_rcnn_r50_fpn_1x.py 表 5 608×608分辨率下Infrared-PV目标锚框Table 5. Anchors of targets in Infrared-PV dataset under 608×608 resolutionScale Small Middle Large Feature map 76×76 38×38 19×19 Receptive filed 165×165 437×437 725×725 Anchors 6, 23
50, 3
10, 259, 31
12, 36
11, 8723, 54
67, 59
237, 179YOLO v3和YOLO v4系列基于darknet的C语言官方实现,其中YOLO v3模型初始学习率为0.01,批大小为64,子批大小(subdivisions)由显存大小调整,训练总步长为12500,在步长为5000和10000时退火为前一步长的10%;YOLO v4模型初始学习率为0.00001,批大小为8,退火步长为18000和26000;其他为默认设置。
YOLO v5系列基于ultralytics的YOLO v5实现,训练轮次(epoch)为200,批大小为64;采用SGD梯度下降优化器,动量为0.9;初始学习率0.01,预热为3 epoch,采用余弦退火;其他为默认设置。
Faster R-CNN、FCOS、Cascade R-CNN算法基于mmdetection[39]实现。其中超参数设置如下:epoch为50,批大小为8;SGD优化器,动量为0.9;初始学习率为0.02,在epoch为25和38时退火为前一步长的33%;其他为默认设置。
3.3 结果分析
对检测结果进行分析,当目标检测结果与真值的交并比(intersection over union, IOU)大于0.5认为该目标被检测到,以单位时间推理图片张数(frame per second, FPS)评估模型实时性,以各类别的平均精度(average precision, AP)、召回率(recall)以及平均精度均值(mean average precision, mAP)来评估模型的检测性能。
在基准实验中,各模型的检测性能如表 6所示,检测结果如图 7所示。由于没有对Anchor进行优化,对行人等小目标检测效果不佳,故Faster R-CNN模型的mAP0.5只达到了65.6%,推理速度仅为16.08FPS;当模型输入尺寸为608×608时,YOLO v3模型的检测精度较416×416时提升5.8%。由图 7(c)和(d)可见,网络输入尺寸的增加有利于小目标检测和位置框的精准回归,同时降低了虚警率,但实时性有所降低。YOLO v4模型的mAP0.5为78.97%,YOLO v5模型的mAP0.5最高,达到了80.7%。从图 7对比看出,YOLO v4模型的召回率高于YOLO v5模型,但是虚警率略高。总体而言,一阶段算法对于遮挡和弱小目标情况检测率相对较高,虽然存在少量虚警,但能够满足检测算法的实时性需求。
表 6 Infrared-PV数据集各检测模型性能基准(置信度:0.05)Table 6. Performance benchmark of several detection algorithms for Infrared-PV dataset (confidence: 0.05)Algorithm Rating Backbone Size FPS AP0.5(vehicle)/Recall AP0.5(person)/Recall mAP0.5(%) Faster R-CNN 5 Resnet50 1333×800 16.08 0.775/0.868 0.536/0.792 65.6 YOLO v3 4 Darketnet53 416×416 48.9 0.797/0.8588 0.581/0.806 68.9 YOLO v3 3 Darketnet53 608×608 32.8 0.8666/0.9049 0.6278/0.81676 74.7 YOLO v4 2 CSPDarknet53 608×608 29.0 0.87/0.93 0.71/0.889 78.97 YOLO v5-l 1 - 608×608 99.22 0.882/0.911 0.732/0.853 80.7 注:加粗字体为该列最优值 Note: Bold font is the optimal value 3.4 其他目标检测算法实验
除基准实验外,本文进行了扩充实验以验证其他模型在Infrared-PV数据集上的性能。本文使用先进的骨干网络ResNest[40]替换Faster R-CNN和Cascade R-CNN模型的主干网络,进行了对比实验。
各模型的检测指标结果具体如表 7所示。由表 7可以看出,采用ResNest的两阶段检测模型相比传统ResNet特征提取网络性能上有显著提升,Cascade R-CNN模型mAP0.5提升了15.3%,达到了最高的检测精度82.3%。由图 7(b)可见,对于遮挡、小目标上的实际效果最佳,优于所有单阶段算法,但是该模型实时性较差;在YOLOv4的基础上裁剪模型为原大小的1/16,精度提高的同时实时性提高了一倍,说明针对特定数据集,尤其是目标类别较少的情况下,通过裁剪卷积通道数能够在不降低目标检测率的情况下,提高模型推理速度;FCOS模型对于红外目标检测结果差强人意,主要是因为红外图像纹理信息缺失,边缘信息不明显,像素框定位目标困难,故mAP0.5较低。
表 7 其他模型在红外数据集的测试结果(置信度: 0.05)Table 7. Test results of other models on Infrared-PV datasets (confidence: 0.05)Algorithm Backbone Size FPS AP0.5(vehicle) /Recall AP0.5(person) /Recall mAP0.5/% Cascade R-CNN ResNet50 1333×800 11.80 0.788/0.870 0.552/0.803 67.0 Cascade R-CNN ResNest50 1333×800 10.18 0.901/0.944 0.744/0.914 82.3 Faster R-CNN ResNet50 1333×800 16.08 0.775/0.868 0.536/0.792 65.6 Faster R-CNN ResNest50 1333×800 15.09 0.888/0.935 0.700/0.884 79.4 YOLOv5s - 608×608 175.4 0.87/0.899 0.722/0.854 79.6 YOLOv5m - 608×608 125.36 0.889/0.921 0.728/0.849 80.0 YOLOv5x - 608×608 37.32 0.8754/0.9029 0.7297/0.8541 80.3 YOLOv4-kd CSPDarknet53 608×608 66.7 0.882/0.9433 0.7380/0.8987 81.0 FCOS ResNet50 1333×800 18.79 0.755/0.893 0.494/0.787 62.4 注:加粗字体为该列最优值 Note: Bold font is the optimal value 4. 结论
本文构建了一个包含行人和车辆2类目标的红外图像检测数据集,对于采用的红外视频图像采用自研的标注软件进行了目标标注,然后对数据集的各项统计信息进行了总结分析。结合目前主流基于深度学习的目标检测模型,给出了各模型在该数据集的检测性能。该数据集的构建能够为视频监控场景下的红外目标检测,以及红外图像目标特性分析提供一定的数据支撑。
-
图 3 试件热激励面热图:(a) 热激励0 s热图;(b) 热激励60 s热图;(c) 热激励120 s热图;(d) 热激励180 s热图;(e) 热激励240 s热图;(f) 热激励300 s热图
Figure 3. The thermal image of GFRP specimen with flat-bottom holes: (a) The thermal image at 0 seconds of thermal excitation; (b) The thermal image at 60 seconds of thermal excitation; (c) The thermal image at 120 seconds of thermal excitation; (d) The thermal image at 180 seconds of thermal excitation; (e) The thermal image at 240 seconds of thermal excitation; (f) The thermal image at 300 seconds of thermal excitation
图 4 温差-时间最小二乘法多项式拟合曲线与温差-时间一阶微分实验曲线:(a) 温差-时间最小二乘法多项式拟合曲线;(b) 温差-时间一阶微分实验曲线
Figure 4. The least squares polynomial fitting curves of ΔT−t and the first order differential experimental curves of ΔT−t: (a) The least squares polynomial fitting curves of ΔT−t; (b) The first order differential experimental curves of ΔT−t
表 1 风电叶片玻璃钢热性能参数
Table 1 Thermal parameters of wind turbine blade GFRP
ρ/(kg·m−3) C/(J·(kg·K) −1) λ/(W·(m·K) −1) α/(m2·s−1) 1830 950 0.38 $ 2.19 \times {10^{ - 7}} $ 表 2 各平底洞中心对应热激励面的特征时间
Table 2 The characteristic time of the thermal excitation surface corresponds to the center of each flat-bottom hole
Holes A B C D E F Characteristic time/s 150 200 146 165 205 149 表 3 各平底洞内厚度测量值及相对误差
Table 3 The measured thickness and relative error of each flat-bottom hole
Holes Thickness
/mmMeasured
thickness/mmRelative errors A 14 13.8 1.4% B 19 17.6 7.4% C 10 9.3 7.0% D 16 15.3 4.4% E 20 18.1 9.5% F 11 10.0 9.1% -
[1] 李晓丽. 红外热波定量测量技术的研究及其应用[D]. 北京: 北京理工大学, 2018: 1-10. LI Xiaoli. Studies for Quantitatively Measuring Technique by Using Thermal Wave Imaging and Their Applications[D]. Beijing: Beijing Institute of Technology, 2018: 1-10.
[2] Worzewski T, Krankenhagen R, Doroshtnasir M, et al. Thermographic inspection of a wind turbine rotor blade segment utilizing natural conditions as excitation source, Part Ⅰ: Solar excitation for detecting deep structures in GFRP[J]. Infrared Phys. Technol. , 2016, 76: 756-766. DOI: 10.1016/j.infrared.2016.04.011
[3] Kalyanavalli V, Mithun P M, Sastikumar D. Analysis of long-pulse thermography methods for defect depth prediction in transmission mode[J]. Meas. Sci. Technol. , 2019, 31: 014002.
[4] Shepard S M, Lhota J R, Rubadeux B A, et al. Reconstruction and enhancement of active thermographic image sequences[J]. Opt. Eng. , 2003, 42(5): 1337-1342. DOI: 10.1117/1.1566969
[5] SUN J G. Pulsed thermal imaging measurement of thermal properties for thermal barrier coatings based on a multilayer heat transfer mode[J]. J. Heat Trans. , 2014, 136: 081601. DOI: 10.1115/1.4027551
[6] SUN J G. Thermal conductivity measurement for thermal barrier coatings based on one- and two-sided thermal imaging methods[J]. Review of Quantitative Nondestructive Evaluation, 2010, 29: 458-465.
[7] SUN J G. Quantitative three-dimensional imaging by thermal tomography method[J]. Review of Quantitative Nondestructive Evaluation, 2011, 30: 430-437.
[8] LI Xiaoli, TAO Ning, SUN J G, et al. Thickness measurement by two-sided step-heating thermal imaging[J]. Rev. Sci. Instrum., 2018, 89: 104902. DOI: 10.1063/1.5047049
[9] LI Xiaoli, SUN J G, TAO Ning, et al. An effective method to inspect adhesive quality of wind turbine blades using transmission thermography[J]. J. Nondstrct. Eval. , 2018, 37(19): 1-11
[10] LI Xiaoli, TAO Ning, SUN Jiangang, et al. Evaluation of an ancient cast-iron Buddha head by step-heating infrared thermography[J]. Infrared Phys. Technol. , 2019, 98: 223-229. DOI: 10.1016/j.infrared.2019.03.017
[11] 金学元. 持续热激励红外热像无损检测技术的研究及应用[D]. 北京: 首都师范大学, 2013: 12-18. JIN Xueyuan. Study on the Application of Non-destructive Testing Technology of Infrared Thermal Image with Continuous Thermal Excitation[D]. Beijing: Capital Normal University, 2013: 12-18.
[12] 李晓丽, 孙建刚, 陶宁, 等. 非线性拟合方法用于透射式脉冲红外技术测试碳/碳复合材料的热扩散系数[J]. 物理学报, 2017, 66(18): 188702. https://www.cnki.com.cn/Article/CJFDTOTAL-WLXB201718031.htm LI Xiaoli, SUN Jiangang, TAO Ning, et al. Application of nonlinear data fitting method to thermal diffusivity of carbon-carbon composite measured by transmission pulsed thermography[J]. Acta Physica Sinica, 2017, 66(18): 188702. https://www.cnki.com.cn/Article/CJFDTOTAL-WLXB201718031.htm
[13] 曾智, 陶宁, 冯立春, 等. 缺陷尺寸对红外热波技术缺陷深度测量的影响研究[J]. 红外与激光工程, 2011, 41(7): 1910-1915. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201207041.htm ZENG Z, TAO N, FENG L C, et al. Effect of defect size on the measurement of defect depth using thermal wave imaging[J]. Infrared and Laser Engineering, 2011, 41(7): 1910-1915. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201207041.htm
-
期刊类型引用(2)
1. 高程,唐超,童安炀,王文剑. 基于CNN和LSTM混合模型的红外人体行为识别. 合肥学院学报(综合版). 2023(05): 77-85 . 百度学术
2. 赵普,武一. 面向社区医疗的跌倒检测算法. 中国医学物理学杂志. 2023(12): 1486-1493 . 百度学术
其他类型引用(12)