基于动态规划的对焦步进电机控制

邝先验, 周亚龙, 吴玉刚

邝先验, 周亚龙, 吴玉刚. 基于动态规划的对焦步进电机控制[J]. 红外技术, 2022, 44(2): 163-169.
引用本文: 邝先验, 周亚龙, 吴玉刚. 基于动态规划的对焦步进电机控制[J]. 红外技术, 2022, 44(2): 163-169.
KUANG Xianyan, ZHOU Yalong, WU Yugang. Control of Focusing System of Stepper Motor Based on Dynamic Programming[J]. Infrared Technology , 2022, 44(2): 163-169.
Citation: KUANG Xianyan, ZHOU Yalong, WU Yugang. Control of Focusing System of Stepper Motor Based on Dynamic Programming[J]. Infrared Technology , 2022, 44(2): 163-169.

基于动态规划的对焦步进电机控制

详细信息
    作者简介:

    邝先验(1976-),男,博士,教授。主要研究方向:智能交通系统、系统建模与仿真、智能控制与信息技术。E-mail:xianyankuang@163.com

  • 中图分类号: TN216

Control of Focusing System of Stepper Motor Based on Dynamic Programming

  • 摘要: 为了解决STM(stepper motor)镜头中步进电机低频对焦慢、高频失步跑焦的问题,通过分析对焦过程中电机的加减速动作,结合步进电机加减速曲线,设计了一种适用于STM镜头驱动的步进电机开环控制算法。算法根据步进电机速度在单位控制周期内不变,把步进电机位置控制问题转换为单位控制周期内脉冲输出问题,实现了速度控制与位置控制的巧妙结合。设计并搭建了STM镜头对焦电机控制电路,工程实验结果表明:该算法提高了步进电机开环控制的精度,有效地减小了由于步进电机过冲和失步带来的跑焦问题。
    Abstract: To solve the problems of slow focusing in a stepper motor lens, caused by a stepper motor used for low-frequency driving, and the lack of focus, caused by an out-of-step stepper motor used for high-frequency driving, the open-loop control algorithm of a stepper motor for an STM lens is designed by analyzing the motor's acceleration and deceleration action and its acceleration-deceleration curves during the focusing process. Based on the constant speed of the motor during the unit control period, the algorithm transforms the position control problem of the stepper motor into a pulse output problem in the unit control cycle, which realizes a skillful combination of speed control and position control. The control circuits are built for the STM lens focusing motor. The experimental results show that this algorithm can improve the open-loop control precision of the stepper motor, effectively suppressing the out-of-focus problem caused by overshoot and out-of-step stepper motors.
  • 目标识别技术是计算机视觉领域的重要研究方向之一。但是在可见光效果较差的环境下,传统的可见光目标检测技术往往难以达到良好的效果,使用红外成像在夜间或低光环境下比可见光成像效果更好[1],因此红外目标检测在安防、军事等领域中有着广泛的应用。

    随着在机器视觉领域引入深度学习,目标检测技术取得了快速发展,基于深度学习的目标检测方法解决了传统机器学习检测精度低、漏检率高、检测速率低的问题。基于深度学习的目标检测算法按其网络体系结构,主要分为单阶段检测算法及双阶段网络算法,但经大量研究证实了双阶段目标检测算法可以在红外图像下进行目标检测,但过程繁琐,且需要大量重复性实验。随着YOLOv3[2]、YOLOv4[3]、YOLOv5的先后提出,YOLO[4]系列算法在精度和速度上对比同单阶段算法有着较大的优势,YOLOv5s算法作为YOLO系列算法比较成熟且模型体积较小的目标检测算法,对红外图像进行目标识别有着较好的表现,但因红外图像的图像特性,在检测速率、精度上还尚有改进空间。

    本文基于YOLOv5s[5]算法,提出了以下几点改进:

    1)引入了Ghost网络,并将NWD loss(Normalized Wasserstein Distance loss)损失函数融入至Ghost网络中,Ghost模型减少模型参数的同时可以提高YOLOv5s的性能,将损失函数替换为NWD loss,在不影响模型参数量的同时提高了模型的精度。

    2)添加注意力机制CA,CA不仅考虑了通道信息,还考虑了方向相关的位置信息,且能够简单地插入到轻量级网络的核心模块中。

    3)添加了加权双向特征金字塔BiFPN,BiFPN具有高效的双向跨尺度连接和加权特征融合,可以实现更多的特征融合。

    YOLOv5算法是一种轻量化的目标检测算法,其网络结构由输入端、主干网络、颈部和检测网络组成。YOLOv5算法具有4个不同深度和宽度的网络,分别为YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x,其中YOLOv5s是深度最小、特征图宽度最小且训练速度最快的网络。该算法具有高准确性和较快的训练速度,适用于移动端和嵌入式设备的实时目标检测应用。

    Ghost Bottleneck[6]是一种轻量化的卷积神经网络结构,旨在减少计算量和参数数量的同时,提高模型的精度和鲁棒性。如图 1为Ghost Bottleneck模块原理图,Ghost Bottleneck主要由两个Ghost模块叠加而成,第一个模块用于增加t通道数量,而第二个模块则用于减少通道数量,Ghost Bottleneck包含stride=1和stride=2两个版本,stride=1时不进行下采样,直接进行两个Ghost卷积操作;stride=2时shortcut路径下进行下采样,并在Ghost模块中加入一个步长为2的深度卷积操作,通过这种方式,Ghost Bottleneck可以在保证特征提取效果的同时,大幅减少参数数量和计算量。其中Ghost module模块原理图如图 2所示。

    图  1  Ghost Bottleneck模块原理图
    Figure  1.  Module schematic of the Ghost Bottleneck
    图  2  Ghost module模块原理图
    Figure  2.  Module schematic of the Ghost module

    NWD loss[7]是一种用于目标检测任务的损失函数。NWD loss是基于Wasserstein距离的思想,旨在降低不同尺度物体之间的特征差异,提高目标检测的准确性。相比于传统的均方误差(Mean Squared Error)损失函数,NWD loss可以更好地适应物体检测任务中不同尺度物体的特征差异,从而更好地优化模型。在NWD loss中,Wasserstein距离是在两个分布之间计算的,这里的分布指的是特征图上的物体分布。通过计算分布之间的Wasserstein距离,可以度量两个分布之间的相似度,从而用作损失函数的衡量标准。

    NWD:

    $$ {\text{NWD}}({N_{\text{p}}}, {N_{\text{g}}}) = \exp ( - \frac{{\sqrt {(W_2^2({N_{\text{a}}}, {N_{\text{b}}})} }}{C}) $$ (1)

    NWD loss:

    $$ L_{\mathrm{NWD}}=1-\mathrm{NWD}\left(N_{\mathrm{p}}, N_{\mathrm{g}}\right) $$ (2)

    式中:Np是预测框的高斯分布;Ng是GT框的高斯分布;C是一个常数,和数据集有关。

    Coordinate Attention[8](CA)是一种新颖的移动网络注意力机制,CA注意力很简单,可以灵活地插入到经典的移动网络中,而且几乎没有计算开销。CA框图如图 3所示。

    图  3  CA注意力模块
    Figure  3.  CA attention module

    为了使注意力模块能够捕捉具有精确位置信息的远程空间交互,CA按照以下公式分解了全局池化。

    转化为一对一维特征编码操作:

    $$ {z_c} = 1\frac{1}{{H \times W}}{\text{ }}\sum\limits_{i = 1}^H {\sum\limits_{j = 1}^W {{x_c}(i, j)} } $$ (3)

    高度为h的第c通道的输出:

    $$ z_c^h(h) = \frac{1}{W} \sum\limits_{0 \leqslant i < W}^{} {{x_c}(h, i)} $$ (4)

    宽度为w的第c通道的输出:

    $$ z_c^h(h) = \frac{1}{H}{\text{ }}\sum\limits_{0 \leqslant i < H}^{} {{x_c}(j, w)} $$ (5)

    对尺寸为C×H×W输入特征图Input分别按X方向和Y方向进行池化,分别生成尺寸C×H×1和C×1×W的特征图,如图 4所示。

    图  4  C×H×1和C×1×W的特征图
    Figure  4.  C×H×1 and C×1×W characteristic diagram

    将生成的C×1×W的特征图进行变换,然后进行Concat操作:

    $$ f = \delta ({F_1}([{z^h}, {z^w}])) $$ (6)

    Coordinate Attention Block的输出Y

    $$ {y_c}(i, j) = {x_c}(i, j) \times g_c^h(i) \times g_c^w(j) $$ (7)

    Bipartite Feedforward Networks(BiFPN)是一种新型的神经网络结构,它可以应用于计算机视觉任务中的特征提取。BiFPN[9]不同于其他的FPN结构(不同分辨率的特征融合时直接相加),在PANet[10]的基础上,若输入和输出都是同一水平,则添加一条额外的边。EfficientDet[11]为解决因不同的特征具有不同的分辨率,对特征融合的贡献不平等的问题,提出在特征融合期间为每个输入添加一个额外的权重,让网络去学习每个输入特征的重要性。如图 5所示,BiFPN做了两个方面的改进:

    图  5  BiFPN注意力模块
    Figure  5.  BiFPN attention module

    1)PANet进行特征融合时,是通过Concat的,一般高层和低层的特征贡献程度相同,BiFPN在特征融合时,通过一组可学习的归一化权重参数调整各层贡献程度。

    2)BiFPN堆叠多层实现更高维度的特征融合。

    使用Ghost Bottleneck模块替代原始YOLOv5s网络结构中的C3模块以及Conv模块。YOLOv5s改进模型算法网络结构示意图和模块替换示意图如图 6所示。具体而言,第三层C3模块用step=1的Ghost Bottleneck模块替代;第二层、第四层、第六层和第八层的Conv模块用step=2的Ghost Bottleneck模块替代,以降低模型参数数量;第五层、第七层及第九层的C3模块则用3个step=1的Ghost Bottleneck模块替换。将本次改进后的模型YOLOV5-Ghost称为YOLOv5-CG。

    图  6  改进后YOLOv5s网络结构
    Figure  6.  Improved YOLOv5s network structure

    CIOU loss[12]无法对目标的长宽比进行很好的处理,导致对于形状较为特殊的目标,检测精度可能不如NWD loss,且CIoU损失函数未考虑难易样本的平衡问题。NWD loss可以对目标之间的相似性进行更准确的度量,并且可以自适应地调整样本的难易程度,从而提高模型的泛化能力。

    因此将Ghost网络模块回归的损失由原始CIoU Loss替换为NWD Loss,将替换后的模型称为YOLOv5-GN,通过实验证明,模型表现较好。

    为提升模型训练过程中对训练图像不同区域信息学习效率,因此在不同尺寸的特征图后添加注意力CA模块,将CA放在Backbone部分的最末端,即在第十层的输出端添加CA模块,这样可以使注意力机制看到整个Backbone部分的特征图,使得特征图的深度加权平均,提升网络模型的精度,同时较好地提升模型学习效率。

    将BiFPN添加到Neck部分的第十层,BiFPN引入了跳跃连接,即在相同尺度的输入节点到输出节点中间再增加1个跳跃连接,因为运算处于相同层,该方法可在参数较少的同时结合更多特征。BIFPN将每一条双向路径视作1个特征网络层,并对同一层参数进行多次计算,以实现更多的特征融合。

    本文实验是基于Windows10操作系统下进行实验验证。训练平台采用Nvidia GeForce RTX 3090(24 GB/微星),13th Gen Intel(R) Core(TM) i7-13700K CPU @ 3.40 GHz处理器,语言为Python3.7,加速环境为CUDA11.6,深度学习网络框架为Pytorch。测试部署平台采用Jetson AGX Orin 32 GB,该开发板具备支持多个并发AI推理管线的200TOPS算力,外形小巧,性能出色。该开发板具备8核Arm® Cortex®-A78AE v8.2 64位CPU 2 MB L2+4 MB L3,GPU采用搭载56个Tensor Core的1792核NVIDIA Ampere架构GPU。

    本文训练验证采用数据集为InfiRay[13]提供的红外航拍人车检测数据集,数据库使用person、car、bus、cyclist、bike、truck分别作为行人、小汽车、公交车、骑自行车的人、自行车、卡车的标签。验证训练集11045张、验证集2000张、测试集550张。网络模型部分重要训练参数设置如下:训练轮次为300,批尺寸为16,初始学习率为0.01,周期学习率为0.01,学习率动量为0.937,权重衰减系数为0.0005。

    本文对模型训练的评价指标主要从以下几方面分析:精确率(Precision):是指预测为正例中真正为正例的样本数占所有预测正例的样本数的比例;召回率(Recall):是指真正为正例中预测为正例的样本数占所有真正为正例的样本数的比例;平均精度[14](Mean Average Precision,mAP):是对所有类别的AP取平均得到的指标;F1分数(F1-score):是衡量模型准确率和召回率之间平衡的指标,F1分数越高,代表模型综合表现越好。帧率(FPS):每秒传输帧数,YOLOv5的帧率计算主要为以下3个参数:图像预处理时间(pre-process)、推理速度[15]、后处理时间,FPS即1000 ms除以这3个时间之和。其中TP表示被模型预测为正类的正样本数量,FN表示被模型预测为负类的正样本数量,AP表示平均准确度,N表示总的类别数。即预测为正例且正确的样本数除以预测为正例的样本数。

    $$ \text{Precision} = \frac{{{\text{TP}}}}{{{\text{TP + FP}}}} $$ (8)
    $$ \text{Re} {\text{call}} = \frac{{{\text{FP}}}}{{{\text{TP + FN}}}} $$ (9)
    $$ {\text{mAP}} = \frac{{\sum\limits_{i = 1}^N {{\text{AP}}} }}{N} $$ (10)
    $$ {\text{F1-score}} = 2 \times \frac{{{\text{precision}} \times {\text{recall}}}}{{{\text{precision + recall}}}} $$ (11)
    $$ {\text{FPS}} = \frac{{1000}}{{{\text{pre - process + ms inference + NMS}}}} $$ (12)

    将改进后的模型训练所得的results.txt文件,使用Matlab软件提取有效信息,并对关键数据进行可视化展示,消融实验分两组对比,其中一组对比各模型的精准率、召回率、mAP@0.5、mAP@0.5: 0.95。另一组对比各模型的mAP@0.5、FPS、权重文件大小。为了更直观地感受检测效果,在两个场景下对各模型的检测效果做展示。

    为验证本文改进算法的有效性,在相同数据集上进行了消融实验。在YOLOv5s原模型的基础上,依次进行修改:引入Ghost主干网络(YOLOv5s-GC);引入替换NWD loss的Ghost(YOLOv5s-GN);引入CA和BiPFN注意力机制(YOLOv5s-CB)。消融实验结果如表 1所示。从表 1中实验结果可以看出,YOLOv5s-GC mAP@0.5提高了3%,FPS增加了8.1;YOLOv5s-GN mAP@0.5上升了3.2%,FPS增加了7.51;YOLOv5s-CB mAP@0.5上升3.3%,F1提升了3,但FPS下降了3.2。对比YOLOv5s-GN-CB与YOLOv5s原模型,mAP@0.5上升4.2%,F1提升了4,FPS上升了8.1,综上所述证明,本文所改进方法的有效性,在提高模型平均精度的同时,提高了模型计算速度,减少耗时,提高了检测实时性。

    表  1  消融实验结果对比
    Table  1.  Comparison of ablation experimental results
    Models mAP@0.5 F1 FPS
    YOLOv5s 90.9 87 67.114
    YOLOv5s- GC 93.9 89 75.188
    YOLOv5s- GN 94.1 89 74.627
    YOLOv5s- CB 94.2 90 44.053
    YOLOv5s- GN-CB 95.1 91 75.188
    下载: 导出CSV 
    | 显示表格

    为了更直观地验证改进后的YOLOv5s-GN-CB模型的检测效果,本文用各改进算法分别对两个不同场景进行了红外人车检测验证,场景a包括了多个分类,场景b下虽分类不多但框图多,分别对两种场景10组检测结果进行了对比,检测结果图像如图 7所示,每组检测结果中,第一列为原YOLOv5s检测结果,最后一列为改进的YOLOv5s-GN-CB检测结果。通过检测结果可以看出YOLOv5s-GN-CB检测精度更高,特征提取能力有所增强,在不同场景下的检测均有一定提高。

    图  7  检测结果示例:两个场景下各改进各算法的检测效果
    Figure  7.  Example of detection results: The detection effect of each algorithm is improved in two scenarios

    为了更加客观地评价本章所改进的YOLOv5s模型在红外场景检测中的效果,本文将改进后的YOLOv5s模型与其它YOLOv5主流算法进行了对比,包括原YOLOv5s、YOLOv5s-Ghost(GC)[16]、YOLOv5s-GN、YOLOv5s-MobileNetV3[17]、YOLO v5x,实验过程遵循控制变量原则,实验软硬件环境保持一致。评价指标采用平均准确率(mAP)、每秒帧数(FPS)、权重文件大小(MB)。实验结果如表 2所示,通过实验结果可以看出,Ours相对于YOLOv5s mAP@0.5提高了3.2%,FPS增加了8.1;相对于YOLOv5s-Ghost mAP@0.5上升了2.2%;相对于YOLOv5s-GN mAP@0.5上升1%;相对YOLOv5s-MobileNetV3 mAP@0.5上升3.1%,FPS上升了19;虽然mAP@0.5对比YOLOv5x略有下降,但在FPS及权重文件大小上有较大优势。图 8显示了与其它YOLOv5主流算法的参数变化对比,通过观察图表可以看出本文改进的算法在平均精度、帧率及权重大小上具有显著优势。

    表  2  主流算法对比实验结果
    Table  2.  Comparative experiments with mainstream algorithms
    Models mAP@0.5/ (%) FPS/(frame/s) Weight coefficient/MB
    YOLOv5s 90.9 67.114 3.69
    YOLOv5s-Ghost 93.9 75.188 7.44
    YOLOv5s-GN 94.1 75.188 11.5
    YOLOv5s-MobileNetV3 92.0 56.180 7.31
    YOLOv5x 97.7 14.164 171
    Ours 95.1 75.188 11.6
    下载: 导出CSV 
    | 显示表格
    图  8  改进前后不同模型的参数变化对比
    Figure  8.  Comparison of parameter variations of different models before and after improvement

    本文提出一种基于改进YOLOv5s的红外人车目标检测的优化算法,改进后YOLOv5s-GN-CB模型应用于红外场景下对人车等多种分类进行检测分类。实验将模型部署至Jetson AGX Orin平台经测试模型,使用改进后算法对红外场景下的航拍人车进行目标识别mAP@0.5可达到95.1%,FPS为75.188帧/s,模型产生的权重文件为11.6 MB。实验表明,相对于原YOLOv5s模型,改进后的模型在利于便携式嵌入式设备的情况下可有效提高平均精度和FPS。此研究对增强无人机在夜间飞行过程中对周围环境的检测能力,推动无人机的发展具有重要意义。

  • 图  1   镜头一般对焦过程

    Figure  1.   General focus process of lens

    图  2   STM镜头控制组件系统框图

    Figure  2.   STM lens control component system diagram

    图  3   控制序列搜索流程图

    Figure  3.   Control sequence search flow chart

    图  4   2000脉冲步的速度变化曲线

    Figure  4.   Velocity curve of 2000 pulse steps

    图  5   4000脉冲步的速度变化曲线

    Figure  5.   Velocity curve of 4000 pulse steps

    图  6   不同控制算法的图像清晰度对比

    Figure  6.   Comparison of image definition of different control algorithm

    图  7   不同控制算法的对焦时间对比

    Figure  7.   Comparison of focusing time of different control algorithms

    表  1   单向步进的位移误差

    Table  1   Displacement error of one-way step

    Pulses Target trip Actual trip Time/ms
    40 500 498 125
    60 500 490 83.3
    80 500 487 62.5
    100 500 470 50
    120 500 350 41.7
    150 500 169 30
    下载: 导出CSV

    表  2   步进电机具体参数

    Table  2   Specific parameters of stepping motor

    Parameters Value
    Voltage range DC 5.0 V(range from 3.0 V to 6.0 V)
    Coil impedance 20 Ω±7%
    Number of phase 2 Phase
    Step angle 18°/Step
    Force 350 g(AT 550 pps 5.0 V)
    Temperature range −40℃ to 70℃
    Maximum speed More than 2000 pps
    下载: 导出CSV

    表  3   2000脉冲步的解序列

    Table  3   Solution sequence of 2000 pulse steps

    Acceleration phase 0 4 13 22 29 37 44 51 58 64 70 75 80 84 88 91 94 96
    Deceleration phase 96 94 91 88 84 80 75 70 64 58 51 44 37 29 22 13 4 0
    下载: 导出CSV

    表  4   4000脉冲步的加速阶段解序列

    Table  4   Acceleration phase sequence of 4000 pulse steps

    Acceleration phase 0 4 13 22 30 38 45 51 58 64 70 75 80 84
    88 91 94 96 98 99 100 100 100 100 100 100 100 100
    下载: 导出CSV

    表  5   步进电机的常规开环控制

    Table  5   Conventional open loop control of stepping motor

    Target trip Speed/pps Time/ms Actual trip
    600 40 150 595
    100 60 560
    1000 40 250 990
    100 100 975
    2000 40 500 2000
    100 200 1958
    4000 40 1000 3994
    100 400 3910
    下载: 导出CSV

    表  6   步进电机的动态规划开环控制

    Table  6   Dynamic programming and open loop control of stepping motor

    Target trip Time/ms Actual trip
    600 140 599
    1000 180 1001
    2000 260 2003
    4000 420 4001
    下载: 导出CSV
  • [1] 杨宁宁, 王晓宁, 夏寅辉, 等. 基于步进电机的红外镜头控制组件设计[J]. 激光与红外, 2012, 42(1): 81-84. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201201019.htm

    YAND Ningning, WANG Xiaoning, XIA Yinhui, et al. Design of infrared lens control component based on stepping motor[J]. Laser and Infrared, 2012, 42(1): 81-84. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201201019.htm

    [2] 李茂军, 刘鼎邦. 步进电机细分驱动电磁转矩分析[J]. 控制工程, 2013, 20(2): 243-245. DOI: 10.3969/j.issn.1671-7848.2013.02.012

    LI Maojun, LIU Dingbang. Electromagnetic torque analysis of stepping motor subdivision drive[J]. Control Engineering of China, 2013, 20(2): 243-245. DOI: 10.3969/j.issn.1671-7848.2013.02.012

    [3] 李汉. 一种步进电机快速准确定位系统的设计及其分析[J]. 微电机, 2012, 45(9): 91-95. https://www.cnki.com.cn/Article/CJFDTOTAL-WDJZ201209021.htm

    LI Han. Design and analysis of a fast and accurate positioning system for stepping motor[J]. Micromotor, 2012, 45(9): 91-95. https://www.cnki.com.cn/Article/CJFDTOTAL-WDJZ201209021.htm

    [4] 王邦继, 刘庆想, 周磊, 等. 步进电机控制系统建模及加减速曲线优化[J]. 电机与控制学报, 2018, 22(1): 37-42. https://www.cnki.com.cn/Article/CJFDTOTAL-DJKZ201801007.htm

    WANG Bangji, LIU Qingxiang, ZHOU Lei, et al. Modeling of stepping motor control system and optimization of acceleration and deceleration curve[J]. Electric Machines and Control, 2018, 22(1): 37-42. https://www.cnki.com.cn/Article/CJFDTOTAL-DJKZ201801007.htm

    [5] 周永明, 许进亮, 李向阳, 等. 基于DSP的两相步进电机细分驱动器设计[J]. 电力电子技术, 2017, 51(4): 87-93. https://www.cnki.com.cn/Article/CJFDTOTAL-DLDZ201704027.htm

    ZHOU Yongming, XU Jinliang, LI Xiangyang, et al. Design of two-phase stepping motor subdivision driver based on DSP[J]. Power Electronics, 2017, 51(4): 87-93. https://www.cnki.com.cn/Article/CJFDTOTAL-DLDZ201704027.htm

    [6] 曾康玲, 杨向宁, 赵世伟, 等. 步进电机指数型加速曲线优化与实现[J]. 微电机, 2014, 47(6): 36-40. https://www.cnki.com.cn/Article/CJFDTOTAL-WDJZ201406009.htm

    ZENG Kangling, YANG Xiangning, ZHAO Shiwei, et al. Optimization and realization of exponential acceleration curve of stepping motor[J]. Micromotor, 2014, 47(6): 36-40. https://www.cnki.com.cn/Article/CJFDTOTAL-WDJZ201406009.htm

    [7] 郭庆, 郭银峰, 徐翠峰. 基于DSP的步进电机S曲线加减速控制[J]. 桂林电子科技大学学报, 2018, 38(1): 41-44. https://www.cnki.com.cn/Article/CJFDTOTAL-GLDZ201801008.htm

    GUO Qing, GUO Yinfeng, XU Cuifeng. S-curve acceleration and deceleration control of stepping motor based on DSP[J]. Journal of Guilin University of Electronic Technology, 2018, 38(1): 41-44. https://www.cnki.com.cn/Article/CJFDTOTAL-GLDZ201801008.htm

    [8] 路欣宇, 苏俊波, 许红, 等. 基于模糊控制的步进电机开环调焦系统设计[J]. 红外技术, 2018, 40(3): 228-231. http://hwjs.nvir.cn/article/id/hwjs201803005

    LU Xinyu, SU Junbo, XU Hong, et al. Design of stepping motor open-loop focusing system based on fuzzy control[J]. Infrared Technology, 2018, 40(3): 228-231. http://hwjs.nvir.cn/article/id/hwjs201803005

    [9] 杨颖辉. 基于AVR控制器的步进电机开环定位控制技术研究[J]. 宇航计测技术, 2016, 36(6): 89-95. https://www.cnki.com.cn/Article/CJFDTOTAL-YHJJ201606019.htm

    YAND Yinghui. Research on open-loop positioning control technology of stepping motor based on AVR controller[J]. Journal of Astronautic Metrology and Measurement, 2016, 36(6): 89-95. https://www.cnki.com.cn/Article/CJFDTOTAL-YHJJ201606019.htm

    [10] 尤玉虎, 刘通, 刘佳文. 基于图像处理的自动对焦技术综述[J]. 激光与红外, 2013, 43(2): 132-136. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201302004.htm

    YOU Yuhu, LIU Tong, LIU Jiawen. Overview of auto focus technology based on image processing[J]. Laser and Infrared, 2013, 43(2): 132-136. https://www.cnki.com.cn/Article/CJFDTOTAL-JGHW201302004.htm

    [11] 蔡祖光, 史铁林. 步进电动机矩频特性测试方法研究[J]. 电子器件, 2012, 35(2): 191-193. https://www.cnki.com.cn/Article/CJFDTOTAL-DZQJ201202018.htm

    CAI Zuguang, SHI Tielin. Research on measurement method of torque frequency characteristics of stepping motor[J]. Chinese Journal of Electron Devices, 2012, 35(2): 191-193. https://www.cnki.com.cn/Article/CJFDTOTAL-DZQJ201202018.htm

    [12]

    Ono M, Pavone M, Kuwata Y. Chance-constrained dynamic programming with application to risk-aware robotic space exploration[J]. Autonomous Robots, 2015, 39(4): 556-567.

    [13] 刘大龙. 基于动态规划的冗余机械臂液压驱动系统能量优化[J]. 中国工程机械学报, 2018, 16(6): 483-496. https://www.cnki.com.cn/Article/CJFDTOTAL-GCHE201806005.htm

    LIU Dalong. Energy optimization of hydraulic drive system of redundant manipulator based on dynamic programming[J]. Chinese Journal of Construction Machinery, 2018, 16(6): 483-496. https://www.cnki.com.cn/Article/CJFDTOTAL-GCHE201806005.htm

  • 期刊类型引用(1)

    1. 范锦珑,王高,李建民. 温敏荧光材料YAG:Tm在高温系统中的发光特性. 电子制作. 2024(24): 87-89+10 . 百度学术

    其他类型引用(0)

图(7)  /  表(6)
计量
  • 文章访问数:  156
  • HTML全文浏览量:  50
  • PDF下载量:  44
  • 被引次数: 1
出版历程
  • 收稿日期:  2020-06-16
  • 修回日期:  2020-08-09
  • 刊出日期:  2022-02-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日