一种CSS-SIFT复合图像配准算法

李培华, 章盛, 刘玉莉, 钱名思

李培华, 章盛, 刘玉莉, 钱名思. 一种CSS-SIFT复合图像配准算法[J]. 红外技术, 2021, 43(1): 26-36.
引用本文: 李培华, 章盛, 刘玉莉, 钱名思. 一种CSS-SIFT复合图像配准算法[J]. 红外技术, 2021, 43(1): 26-36.
LI Peihua, ZHANG Sheng, LIU Yuli, QIAN Mingsi. CSS-SIFT Composite Image Registration Algorithm[J]. Infrared Technology , 2021, 43(1): 26-36.
Citation: LI Peihua, ZHANG Sheng, LIU Yuli, QIAN Mingsi. CSS-SIFT Composite Image Registration Algorithm[J]. Infrared Technology , 2021, 43(1): 26-36.

一种CSS-SIFT复合图像配准算法

基金项目: 

安徽省科技重大专项项目 17030901053

详细信息
    作者简介:

    李培华(1982-),男,山东潍坊人,硕士研究生,工程师,主要从事微控制器、嵌入式和图形处理方面的研究

    通讯作者:

    章盛(1989-),男,安徽芜湖人,硕士研究生,主要从事嵌入式、图像配准和人机交互方面的研究。E-mail:18365393973@163.com

  • 中图分类号: TP391

CSS-SIFT Composite Image Registration Algorithm

  • 摘要: 针对SIFT算法的图像配准耗时长的问题,提出一种CSS-SIFT复合图像配准算法。CSS-SIFT算法首先使用CSS算法检测图像特征,然后,使用优化的SIFT算法生成并降维图像特征描述子,最后,使用基于欧式距离和曼哈顿距离的优化双向匹配算法对图像特征进行匹配。仿真实验条件是通过计算机中仿真软件进行仿真实验,统计图像特征数目、匹配数目、正确匹配数目、配准准确率、配准时间与配准时间下降率共6个指标数据,统计结果表明,CSS-SIFT算法在图像配准准确度方面与传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法相当,但在图像配准耗时方面分别降低了58.45%、10.68%、14.84%、16.21%与4.63%,为图像配准提供了一种解决方案。
    Abstract: To address the time-consuming problem of image registration in the scale-invariant feature transform(SIFT) algorithm, a curvature scale space (CSS)-SIFT composite image registration algorithm is proposed in this paper. First, the CSS-SIFT algorithm uses the CSS algorithm to extract image features. Image feature descriptors are then generated and reduced by the optimized SIFT algorithm. Finally, an optimized two-way matching algorithm based on Euclidean and Manhattan distances is used for matching.A simulation experiment is conducted using simulation software, and six parameters of index data are employed, including the number of image features, number of matches, number of correct matches, registration accuracy, registration time, and registration time decline rate. Statistical results show that the CSS-SIFT algorithm performs as well as the following algorithms in terms of accuracy of image registration: traditional SIFT, traditional speeded-up robust features, Forstern-SIFT, Harris-SIFT, and Trajkovic-SIFT. In addition, time-consumption of image registration is reduced by 58.45%, 10.68%, 14.84%, 16.21%, and 4.63%, respectively, thus providing an effective solution for image registration.
  • 红外成像具有非接触直接测量输变电设备状态的特征,无需停电,在电力领域具有广泛的应用[1-3]。输变电设备在野外严峻环境中长期运行,由于材料老化、污秽闪络、机械受损等因素,常伴随有局部放电、温度增高等现象。绝缘子作为输电线路重要部件,起到电气隔离和机械支撑的作用,当红外图像显示的温度较高,表明其有异常缺陷,这是因为场强不均匀发生局部放电,严重时可能导致线路故障,甚至造成停电故障。文献[4-5]开展了变压器高压套管的红外诊断研究,通过热像特征谱图分析了故障原因。红外图像可应用于交流滤波器的故障分析中,提取其跳闸的典型故障特征[6-8]

    输变电设备红外图谱特征提取主要为图像处理方法,诸如纹理、色彩、边框等图像特征[9-10]。随着无人机航拍技术的发展,输变电设备红外图谱呈现爆发式增长,深度学习提供了一种良好的手段[11-13],采用卷积神经网络(Convolutional Neural Networks,CNN)的方法,对海量图片进行训练学习,提取特征进行测试和验证。CNN通过卷积层计算,输入较深层的特征图,对于小目标绝缘子、套管,权重值相对较少,无法实现小目标的有效提取[14-15]。针对这一缺点,本文对Faster R-CNN方法进行改进,提高绝缘子红外图谱诊断的精度。

    区别于普通的CNN,Faster R-CNN增加了一个区域提取网络(Region Proposal Network,RPN),即图 1中的候选区域,摒弃传统的滑动窗口,可在GPU直接运行计算,极大地加快了计算速度。RPN判断每个像素点对应的多个不同尺度和宽高比的锚框是否为前景目标的二分类,形成候选区域。

    图  1  Faster R-CNN的算法流程
    Figure  1.  Algorithm flow of Faster R-CNN

    Faster R-CNN一般采用随机梯度下降法(Stochastic Gradient Descent,SGD)训练神经网络,见式(1):

    $$ h(x) = \sum\limits_{i = 0}^n {{w_i}} {x_i} = {\mathit{\boldsymbol{W}}^{\rm{T}}}\mathit{\boldsymbol{X}} $$ (1)

    式中:X为输入;W为权重;wixi分别表示第i个权重和输入;h(x)为对应的输出。

    损失函数S(W)基于平方误差实现,见式(2):

    $$ S(\mathit{\boldsymbol{W}}) = \frac{1}{2}\sum\limits_{i = 0}^m {{{({h_W}({x_i}) - {y_i})}^2}} $$ (2)

    式中:yi为真实输出。

    W的更新函数见式(3):

    $$ {W_j} = {W_j} - \alpha \frac{\partial }{{\partial {W_j}}}S(\mathit{\boldsymbol{W}}) $$ (3)

    式中:α为学习率,可设置步长。W通过梯度下降法进行求解,首先正向计算样本输出值,接着根据反向传递的误差迭代计算,常用在CNN训练中。

    RPN的选择本质是通过平移或者尺度变化的方法将合适的区域提取网络R变成$\hat C$,从而接近实际的候选框C

    $$ f({R_x}, {R_y}, {R_w}, {R_h}) = \left( {{{\hat C}_x}, {{\hat C}_y}, {{\hat C}_w}, {{\hat C}_h}} \right) \approx \left( {{C_x}, {C_y}, {C_w}, {C_h}} \right) $$ (4)

    式中:(x, y)、(w, h)分别为矩形区域的中心坐标和宽、高。

    令${t_*}$为矩形区域的平移和缩放量,则有:

    $$ \left\{ {\begin{array}{*{20}{l}} {{t_x} = ({C_x} - {R_x})/{R_{\rm{w}}}}\\ {{t_y} = ({C_y} - {R_y})/{R_{\rm{h}}}}\\ {{t_{\rm{w}}} = \lg ({C_{\rm{w}}}/{R_{\rm{w}}})}\\ {{t_{\rm{h}}} = \lg ({C_{\rm{h}}}/{R_{\rm{h}}})} \end{array}} \right. $$ (5)

    式中:txty为矩形区域的中心坐标平移量;twth分别为矩形区域的宽、高的缩放量。

    预测值计算过程为:

    $$ {d_*}(R) = w_*^{\rm{T}}\phi (R) $$ (6)

    式中:ϕ是最后一次卷积计算。

    损失函数的目标值计算见式(7),通过调整平移和缩放的尺度,确定最终的候选区域[16]

    $$ {L_{{\rm{oss}}}} = \sum\limits_{i = 1}^N {{{(t_*^i - w_*^{\rm{T}}\phi ({C^i}))}^2}} $$ (7)

    为了增强Faster R-CNN的小目标特征提取能力,引入压缩激励结构,即压缩和激励两大操作,设图像的特征参数设置为(H, W, K),分别表示为长、宽和通道数。

    压缩操作Fsq(·)基于各个通道实现特征图空间信息的压缩,见式(8):

    $$ {h_c} = {F_{{\rm{sq}}}}\left( {{k_c}} \right) = \frac{1}{{H \times W}}\sum\limits_{i = 1}^H {\sum\limits_{j = 1}^W {{k_c}(i, j)} } $$ (8)

    式中:kc表示第c个通道;hc表示经过压缩后输出向量h的第c个元素。

    激励操作分为激励Fex(·)和校准Fscale(·)两个过程,分别见式(9)和式(10):

    $$ s = {F_{{\rm{ex}}}}(h, w) = \sigma (g(z, w)) = \sigma ({w_2}\delta ({w_1}z)) $$ (9)

    式中:σ是sigmoid激活函数;w1为$\frac{c}{r} \times \vec C$的实数矩阵,表示通道的缩减,r为缩减因子;δ是ReLU激活函数,w2为$\vec C \times \frac{c}{r}$的实数矩阵,表示通道的恢复。

    $$ {\tilde h_c} = {F_{{\rm{scale}}}}({h_c}, {s_c}) = {s_c}.{h_c} $$ (10)

    式中:sc表示激活向量s的第c个元素;${\tilde h_c}$表示校准后的对应元素。

    本文基于改进的Faster R-CNN方法,对平台的环境搭建要求较高,具体配置见表 1。操作系统为开源Linux,数据库为MySQL;硬件配置较高,CPU采用Intel高端系列,内存和硬盘容量均较大,保证大量数据的高效运算。框架采用2018年初公开的目标检测平台Detectron,包含最具代表性的目标检测、图像分割、关键点检测算法。

    表  1  软硬件配置
    Table  1.  Hardware and software configuration
    Name Model
    Operating system Ubuntu 16.04.1
    Database mysql 5.5.20
    CPU Intel Xeon Silver 4114T 12C
    GPU NVIDIA GTX1080Ti
    Memory 32 G
    Hard disk 1 T
    Frame Detectron
    下载: 导出CSV 
    | 显示表格

    图像数据来源于多条输电线路无人机拍摄的大量绝缘子照片。在神经网络的训练过程中,对正负样本的判定见图 2,主要基于锚框映射图与真实目标框的交并比(Intersection over Union,IoU)来进行计算分类。首先对RPN形成的锚框进行排序筛选形成锚框序列,接着利用边框回归参数向量修正锚框的位置形成候选区域集合,然后计算所有感兴趣区域(Region of Interest,RoI)与真实目标框的IoU,求最大值,并判断其是否大于0.5,若满足,则为正样本,否则为负样本。

    图  2  正负样本判定
    Figure  2.  Positive and negative sample decision

    完成正负样本的判定后,为了使样本的采样尽量均衡,保证双方的训练集和验证集数量一致,同时采用迁移学习的方法,经过相关修正与补偿,扩充样本总量至2375,样本信息配置见表 2

    表  2  样本配置信息
    Table  2.  Information of sample configuration
    sample type training set verification set test set total
    positive 500 250 750 1500
    negative 500 250 125 875
    total 1000 500 875 2375
    下载: 导出CSV 
    | 显示表格

    普通的CNN方法,原始图像经过卷积层和池化层后,全链接层输出结果,本文方法的结构如图 3所示,引入压缩激励的过程,压缩特征图的空间信息,并通过激励操作学习通道间的依赖关系,可自适应分配每个通道的权重值,提取有利于任务的重要特征通道,最终能进一步增强网络模型的特征提取能力,采用SE-DenseNet-169框架的Faster R-CNN模型。

    图  3  改进的Faster R-CNN结构
    Figure  3.  Structure of improved Faster R-CNN

    改进模型主要完成绝缘子异常状态的精准识别,首先对红外原始图像进行相关修正与补偿实现样本扩充,然后采用本文方法进行训练,收敛后,获得最终的改进Faster R-CNN模型。

    CNN学习中,精确度的衡量一般会采用准确率(Precision)和召回率(Recall),其计算过程分别见式(11)和式(12):

    $$ {P_{{\rm{re}}}} = \frac{{{\rm{TP}}}}{{{\rm{TP}} + {\rm{FP}}}} $$ (11)
    $$ {P_{{\rm{ca}}}} = \frac{{{\rm{TP}}}}{{{\rm{TP + FN}}}} $$ (12)

    式中:TP表示是实际值和预测值均是异常绝缘子的个数;FP表示预测值是异常绝缘子,实际值却不是的个数;FN表示是实际值是异常绝缘子,预测值却不是的个数。

    为进一步衡量改进模型的优劣,这里采用平均检测精度(mean Average Precision,mAP),其中AP等价于召回率和准确率形成曲线与横轴包围的几何图形的面积,对所有类别的AP求平均值即可得到mAP。

    基于样本数据,开展BP、Faster R-CNN以及本文方法的精确度和效率对比研究,不同方法的实验结果统计见表 3。Faster R-CNN和本文方法在Precision方面均明显优于BP方法,本文方法的Recall最高,mAP也最高,相对于BP提高了近10%,这说明经过改进的Faster R-CNN对于小目标的特征提取具有明显的优势。本文方法通过压缩激励结果,减少了数据量的计算,所以相对于其他方法,有更高的效率。

    表  3  不同方法的实验结果统计
    Table  3.  Statistics of experimental results by different methods
    Name Precision Recall mAP Time/s
    BP 93.5% 90.4% 80.3% 2.3
    Faster R-CNN 98.7% 95.3% 88.7% 1.2
    BFEM 99.2% 97.6% 90.2% 0.9
    下载: 导出CSV 
    | 显示表格

    绘制其准确率-召回率关系曲线,如图 4所示,可更加形象直观地反映出本文方法对绝缘子异常特征的提取优势,因为另外两种方法的曲线均被完整的覆盖,说明本文方法改进效果明显。

    图  4  准确率-召回率关系曲线
    Figure  4.  Relation curves of precision and recall

    常见绝缘子排列有单Ⅰ型、双Ⅰ型以及Ⅴ型。本文开展这3类绝缘子的红外图像研究,比较不同排列方式的诊断准确率,如图 5所示。根据电力标准DL/T 664-2008[19],图(b)和图(c)绝缘子端部明显发热,属于异常情况。

    图  5  不同类型绝缘子的红外图像
    Figure  5.  Infrared image of different types of insulators

    不同类型绝缘子的异常诊断准确率见表 4,准确率均较高,均在90%以上;Ⅰ型和Ⅴ型绝缘子的准确率明显优于双Ⅰ型绝缘子,这是因为双Ⅰ型绝缘子会出现两排绝缘子重叠的情况,对红外图像的研究造成一定的影响,为此无人机对于该种类型绝缘子的线路需开展多种角度的拍摄。

    表  4  绝缘子异常诊断的准确率
    Table  4.  Accuracy of insulator anomaly diagnosis
    Insulator type Abnormal total Detected number Accuracy
    Single Ⅰ 62 61 98.4%
    Double Ⅰ 47 44 93.6%
    31 31 100.0%
    下载: 导出CSV 
    | 显示表格

    本文提出一种改进的Faster R-CNN方法,引入激励压缩环节,搭建训练模型,完成绝缘子红外图像的异常诊断,并成功应用于电力现场运维。本文方法可高效并精准地识别出绝缘子的异常缺陷,mAP达到90.2%。研究结果可为输电线路绝缘子缺陷识别研究提供一定的参考。

  • 图  1   CSS-SIFT算法的流程框图

    Figure  1.   Flow chart of the CSS-SIFT algorithm

    图  2   实验一待配准图像

    Figure  2.   Registration images of the experiment one

    图  3   源图像的特征检测结果图

    Figure  3.   The results graphs of source image feature detection

    图  4   右视图像的特征检测结果图

    Figure  4.   The results graphs of right image feature detection

    图  5   下视图像的特征检测结果图

    Figure  5.   The results graphs of down image feature detection

    图  6   形变图像的特征检测结果图

    Figure  6.   The results graphs of deformation image feature detection

    图  7   旋转图像的特征检测结果图

    Figure  7.   The result graphs of rotated image feature detection

    图  8   基于传统SIFT算法的图像特征匹配结果图

    Figure  8.   The result graphs of image feature matching based on the traditional SIFT algorithm

    图  9   基于传统SURF算法的图像特征匹配结果图

    Figure  9.   The result graphs of image feature matching based on the traditional SURF algorithm

    图  10   基于Forstner-SIFT算法的图像特征匹配结果图

    Figure  10.   The result graphs of image feature matching based on the Forstner-SIFT algorithm

    图  11   基于Harris-SIFT算法的图像特征匹配结果图

    Figure  11.   The result graphs of image feature matching based on the Harris-SIFT algorithm

    图  12   基于Trajkovic-SIFT算法的图像特征匹配结果图

    Figure  12.   The result graphs of image feature matching based on the Trajkovic-SIFT algorithm

    图  13   基于CSS-SIFT算法的图像特征匹配结果图

    Figure  13.   The result graphs of image feature matching based on the CSS-SIFT algorithm

    图  14   图像配准的对比分析图

    Figure  14.   Comparison analysis graphs of image registration

    T: Tsukuba visible images; K: Kaptein infrared images; M: MR_T1 medical images;
    SIFT: Traditional SIFT algorithm; SURF: Traditional SURF algorithm; F-SIFT: Forstern-SIFT algorithm;
    H-SIFT: Harris-SIFT algorithm; T-SIFT: Trajkovic-SIFT algorithm; C-SIFT: CSS-SIFT algorithm

    表  1   不同规模图像集的图像配准时间、准确率比较

    Table  1   The comparison of the image registration time, accuracy of different scale image sets

    100 200 300 400
    time/s accuracy/% time/s accuracy /% time/s accuracy /% time/s accuracy /%
    SIFT 735.6 92.28 1502.6 92.10 2305.9 91.89 2985.9 91.96
    SURF 335.9 92.52 685.2 92.46 1008.3 92.09 1388.9 92.33
    F-SIFT 344.8 93.02 700.3 92.33 1076.3 92.56 1456.8 93.01
    H-SIFT 360.7 92.86 730.4 92.54 1082.6 93.03 1480.6 92.48
    T-SIFT 318.6 91.89 640.1 92.36 960.7 92.99 1300.8 92.91
    C-SIFT 303.7 92.26 618.9 92.37 930.3 92.38 1240.6 92.56
    下载: 导出CSV
  • [1] 谢金哲.增强现实中的图像配准方法研究[D].长沙: 国防科学技术大学, 2014.

    XIE Jinzhe. Research on Image Registration Methods for Augmented Reality[D]. Changsha: National University of Defense Technology, 2014.

    [2] 徐鹏.双目视觉的图像配准与拼接及其应用[D].重庆: 重庆邮电大学, 2019.

    XU Peng. Image Registration And Stitching of Binocular Vision and Its Application[D]. Chongqing: Chongqing University of Posts and Telecommunications, 2019.

    [3] 章盛.图像拼接算法的优化及漫游系统的研究[D].芜湖: 安徽工程大学, 2016.

    ZHANG Sheng. Optimization of Image Stitching Algorithm and Research of Roaming System[D]. Wuhu: Anhui Polytechnic University, 2016.

    [4]

    Lowe D G. Object recognition from local scale-invariant features[C]// Proceedings of the International Conference on Computer Vision, 1999: 1150-1157.

    [5]

    Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91- 110. DOI: 10.1023/B:VISI.0000029664.99615.94

    [6]

    Jolliffe I T. Principal Component Analysis[M]. New York: Springer- Verlag New York Inc, 2002.

    [7]

    Ke Y, Sukthankar R. PCA-SIFT: A more distinctive representation for local image descriptors[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004: 511-517.

    [8]

    Bay H, Tuytelaars T, Gool L V. SURF: Speeded up robust features[C]// Proceedings of the European Conference on Computer Vision, 2006: 404-417.

    [9] 刘芳, 武桥, 杨淑媛, 等.结构化压缩感知研究进展[J]. 自动化学报, 2013, 39(12): 1980- 1995.

    LIU Fang, WU Qiao, YANG Shuyuan, et al. Research advances on structured compressive sensing[J]. Acta Automatica Sinica, 2013, 39(12): 1980-1995.

    [10] 杨飒, 杨春玲.基于压缩感知与尺度不变特征变换的图像配准算法[J]. 光学学报, 2014, 34(11): 1110001-1-1110001-5.

    YANG Sa, YANG Chunling. Image registration algorithm based on sparse random projection and scale-invariant feature transform[J]. Acta Optica Sinica, 2014, 34(11): 1110001s-1-1110001-5.

    [11] 赵爱罡, 王宏利, 杨小冈, 等.融合几何特征的压缩感知SIFT描述子[J]. 红外与激光过程, 2015, 44(3): 1085-1091.

    ZHAO Aigang, WANG Hongli, YANG Xiaogang, et al. Compressed sense SIFT descriptor mixed with geometrical feature[J]. Infrared and Laser Engineering, 2015, 44(3): 1085-1091.

    [12]

    Trajkovic M, Hedley M. Fast corner detection[C]//Image and Vision Computing, 1988: 75-87.

    [13] 韩超, 方露, 章盛.一种优化的图像配准算法[J]. 电子测量与仪器仪表, 2017, 31(2): 178-184.

    HAN Chao, FANG Lu, ZHANG Sheng. An optimized image registration algorithm[J]. Journal of Electronic Measurement and Instrumentation, 2017, 31(2): 178-184.

    [14]

    Fischler M A, Bolles R C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J]. Communications of the ACM, 1981, 24(6): 381-395. DOI: 10.1145/358669.358692

    [15] 胡为, 刘兴雨.基于改进SIFT算法的单目SLAM图像匹配方法[J]. 电光与控制, 2019, 26(5): 7-13.

    HU Wei, LIU Xingyu. A Monocular SLAM Image Matching Method Based on Improved SIFT Algorithm[J]. Electronics Optics & Control, 2019, 26(5): 7-13.

    [16]

    Fjortoft R, Lopes A, Marthon P, et al. An optimal multiedge detectors for SAR Image segmentation[J]. IEEE Transactions on Geoscience and Remote Sensing, 1998, 36(3): 793-802. DOI: 10.1109/36.673672

    [17]

    OTSU N. A threshold selection method from gray level histograms[J]. IEEE Transactions on SMC, 1979, 9(1): 62-69.

    [18] 迟英鹏, 刘畅.一种适用于SAR图像配准的改进SIFT算法[J]. 中国科学院大学学报, 2019, 36(2): 259-266.

    CHI Yingpeng, LIU Chang. An improved SIFT algorithm for SAR image registration[J]. Journal of University of Chinese Academy of Sciences, 2019, 36(2): 259-266.

    [19] 陆宗骐, 梁诚.用Sobel算子细化边缘[J]. 中国图象图形学报, 2000, 5(6): 516-520. DOI: 10.3969/j.issn.1006-8961.2000.06.015

    LU Zongqi, LIANG Cheng. Edge thinning based on Sobel Operator[J]. Journal of Image and Graphics, 2000, 5(6): 516-520. DOI: 10.3969/j.issn.1006-8961.2000.06.015

    [20] 程德强, 李腾腾, 郭昕, 等.改进的SIFT领域投票图像匹配算法[J]. 计算机工程与设计, 2020, 41(1): 162-168.

    CHENG Deqiang, LI Tenten, GUO Xin, et al. Improved SIFT voting image matching algorithm[J]. Computer Engineering and Design, 2020, 41(1): 162-168.

    [21]

    Mokhtarian F, Suomela R. Robust image corner detection through curvature scale space[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(12): 1376-1381. DOI: 10.1109/34.735812

    [22]

    Canny J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.

  • 期刊类型引用(8)

    1. 李明超,闫宽,张聪,胡记伟,欧锴,陈绪兵. 用于激光软钎焊温度测量的高精度红外辐射测温装置. 红外技术. 2025(01): 108-114 . 本站查看
    2. 秦沛强,聂传杰,吝曼卿,卢永雄,张岸勤,何家冰. 磷矿巷道岩爆风险的可视化及特征增强研究. 矿业研究与开发. 2025(02): 123-131 . 百度学术
    3. 李贞,魏勇. 基于BP神经网络的红外测温补偿算法研究. 机械制造与自动化. 2023(01): 170-172+176 . 百度学术
    4. 曾飞,胡文祥,高彦鑫,宋杰杰. 基于激光扫描的输送带横向跑偏检测系统. 制造业自动化. 2023(05): 21-24 . 百度学术
    5. 杨帆,徐军,吴振生,孙明晓,金添. 基于Web端多节点红外热成像传感系统设计. 激光杂志. 2022(02): 154-157 . 百度学术
    6. 何翔. 非接触式检测装置综合实验设计. 电子技术与软件工程. 2022(07): 148-151 . 百度学术
    7. 谢彬棽. 基于双CAN总线的露天矿带式输送机速度自动化控制方法. 煤矿机械. 2022(12): 214-217 . 百度学术
    8. 武存喜. 回转窑焚烧设备退火温度模糊自适应控制技术. 工业加热. 2022(12): 27-31 . 百度学术

    其他类型引用(2)

图(14)  /  表(1)
计量
  • 文章访问数:  322
  • HTML全文浏览量:  157
  • PDF下载量:  44
  • 被引次数: 10
出版历程
  • 收稿日期:  2020-03-14
  • 修回日期:  2020-12-26
  • 刊出日期:  2021-01-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日