基于红外与可见光图像的目标检测算法

邝楚文, 何望

邝楚文, 何望. 基于红外与可见光图像的目标检测算法[J]. 红外技术, 2022, 44(9): 912-919.
引用本文: 邝楚文, 何望. 基于红外与可见光图像的目标检测算法[J]. 红外技术, 2022, 44(9): 912-919.
KUANG Chuwen, HE Wang. Object Detection Algorithm Based on Infrared and Visible Light Images[J]. Infrared Technology , 2022, 44(9): 912-919.
Citation: KUANG Chuwen, HE Wang. Object Detection Algorithm Based on Infrared and Visible Light Images[J]. Infrared Technology , 2022, 44(9): 912-919.

基于红外与可见光图像的目标检测算法

基金项目: 

国家自然科学基金项目 61972169

详细信息
    作者简介:

    邝楚文(1984-),男,汉族,广东珠海人,讲师,研究方向:计算机科学与技术,人工智能。E-mail: 1952707159@qq.com

  • 中图分类号: TP391.41

Object Detection Algorithm Based on Infrared and Visible Light Images

  • 摘要: 针对现有基于可见光的目标检测算法存在的不足,提出了一种红外和可见光图像融合的目标检测方法。该方法将深度可分离卷积与残差结构相结合,构建并列的高效率特征提取网络,分别提取红外和可见光图像目标信息;同时,引入自适应特征融合模块以自主学习的方式融合两支路对应尺度的特征,使两类图像信息互补;最后,利用特征金字塔结构将深层特征逐层与浅层融合,提升网络对不同尺度目标的检测精度。实验结果表明,所提网络能够充分融合红外和可见光图像中的有效信息,并在保障精度与效率的前提下实现目标识别与定位;同时,在实际变电站设备检测场景中,该网络也体现出较好的鲁棒性和泛化能力,可以高效完成检测任务。
    Abstract: A target detection method based on infrared and visible image fusion is proposed to overcome the shortcomings of the existing target detection algorithms based on visible light. In this method, depth separable convolution and the residual structure are combined to construct a parallel high-efficiency feature extraction network to extract the object information of infrared and visible images, respectively. Simultaneously, the adaptive feature fusion module is introduced to fuse the features of the corresponding scales of the two branches through autonomous learning such that the two types of image information are complementary. Finally, the deep and shallow features are fused layer by layer using the feature pyramid structure to improve the detection accuracy of different scale targets. Experimental results show that the proposed network can completely integrate the effective information in infrared and optical images and realize target recognition and location on the premise of ensuring accuracy and efficiency. Moreover, in the actual substation equipment detection scene, the network shows good robustness and generalization ability and can efficiently complete the detection task.
  • 目前,类似于微光夜视仪的直视型微光装备可靠性试验主要通过“拷机”即静态工作过程来实现。试验时,参试人员间歇性地观察被试品显示端图像,通过人工判读被试品目镜视场的方法来确定被试品是否处于正常工作状态[1]。此方法存在以下不足:一是人工试验鉴定效率低且易发生漏检。可靠性试验具有工作量大、重复性高的特点。由于设备批量大,采用人工方法需要多名检测人员每天长时间工作、连续几个月以上才能完成,耗时耗力。而且,试验中人员间隔对设备进行检查,检查间隙内出现的偶发故障则很难被发现。加之检查很大程度取决于检查人员技术水平和检查经验,主观性大,极易发生漏检。二是人工试验鉴定缺乏有效的故障数据存储处理,不利于技术的持续改进。以人工检测为主的试验方法主要依靠肉眼识别,对出现的故障进行简短的文字描述与记载。这样的检测记录方式存在两个问题:一方面,人工检测记录在装备出现故障时难以完备具体、定性定量地记录故障对装备各个部件的影响,在提供故障检测报告时缺乏有力佐证,且由于故障出现的随机性,难以复现;另一方面,人工检测记录的方式缺乏有效的检测数据存储,无法形成故障数据样本集,这为技术改进增加了难度。

    综上所述,现有直视型装备的可靠性试验所存在的问题归根结底是检测手段无法满足日益增长的检测需求,因此亟需一种智能的、高效的替代人工检查的技术[2-3]。从图像中提取特征获得场景信息是区域监视、目标识别等领域的重要手段。图像质量评价方法可通过衡量图像变化程度来实现视场异常检测[4-5]。传统的图像质量评价方法包括利用图像像素偏离量度量图像下降质量的方法[6],如均方误差度量(Mean-Square Error,MSE)、峰值信噪比(Peak Signal to Noise Ratio,PSNR)等;计算图像像素灰度幅度变化(等价为图像边缘信息)衡量图像质量的方法[7];利用图像灰度分布计算信息熵的方法[8]等。基于小波变换[9]与结构相似性(Structural SIMilarity,SSIM)理论[10-12]的评估方法与人类视觉系统类似,其出现使图像质量评价的准确性有了较大提升。

    本文通过设计转接环连接相机与直视型微光装备进行图像的采集获取,采用结构相似性算法进行异常图像的自动检测,从而实现对直视型微光装备在可靠性试验中的故障诊断。

    基于SSIM算法的直视型微光装备可靠性试验故障诊断通过在被试品目镜上采用连接环固定图像采集设备的方法来获取图像,连续采集记录在被试品可靠性试验过程中目镜里的图像信息。通过设定图像模板,计算被试品监测图像与模板图像的相似度,识别被试品工作过程中的故障,标记、记录并报警,实现被试品工作过程中的故障自动监测。

    被试品与图像采集设备间的可靠连接是稳定采集图像的前提。文中利用直视型微光装备目镜上预留的眼罩螺纹与工业相机镜头上的滤镜螺纹进行可靠连接。按照被试品目镜上螺纹规格和相机镜头滤镜螺纹规格设计加工连接环,一端与被试品连接,另一端与视频采集设备镜头连接,即可实现被试品与图像采集设备间的可靠连接。采集图像时,通过手动调节被试品视度、相机焦距和被试品焦距来实现被试品图像的高清采集。在图像采集相机和镜头选定后,适配该相机的转接环尺寸也随即确定。实际应用中不同被试品眼罩转接环尺寸可能有所差异,为保证转接环能够适用多型装备,可预先按照常用眼罩螺纹规格设计加工系列与相机连接的转接环,如图 1所示的M21×0.7-M25.5×0.5,使用时,根据被试品眼罩螺纹规格,选用相匹配的转接环。

    图  1  转接环加工示意图
    Figure  1.  Adaptors processing diagram

    图像采集设备应尽量满足以下要求:

    1)图像采集的效果应尽可能模拟或超过人眼观察效果,保证软件处理的准确性;

    2)相机与被试品间的连接不影响被试品的正常操作和整体平衡,相机重量应尽量轻,体积尽量小;

    3)实际试验中可能存在多路图像同时采集的需求,为便于后期图像处理和管理,要求相机接口以Ethernet为主。

    文中选择高分辨率彩色相机(型号A3600MU60)作为图像采集设备,配置12mm 1:2.0 1/1.8″镜头。表 1展示了其基本参数。

    表  1  图像采集设备基本参数
    Table  1.  Basic parameters of image acquisition equipment
    Parameter Value
    Resolution 1920×1200
    Maximum frame rate 54fps@1920×1200
    Camera type Color camera
    Pixel size 4.8μm×4.8μm
    Exposure time 59μs-10s
    Data interface Gigabit Ethernet
    Power supply Voltage range 5-15 V,Support PoE power supply
    Power consumption 2.9 W@12VD
    Lens interface C-Mout
    下载: 导出CSV 
    | 显示表格

    SSIM算法利用图像像素间的相关性,结合亮度l、对比度c以及两个复杂结构信号间的结构变化s对图像质量进行客观量化评估。

    定义图像亮度为:

    $${\mu _x} = \frac{1}{N}\sum\limits_{i = 1}^N {{x_i}} $$

    式中:xi为图像第i个像素点的灰度值;N为图像的像素总个数。

    x为模板图像信号,y为待测图像信号。采用平均亮度(μx, μy)计算亮度相似性,定义为:

    $$l\left( {x,y} \right) = \frac{{2{\mu _x}{\mu _y} + {C_1}}}{{\mu _x^2 + \mu _y^2 + {C_1}}}$$

    采用标准差(σx, σy)来估计对比度相似性,定义为:

    $$c\left( {x,y} \right) = \frac{{2{\sigma _x}{\sigma _y} + {C_2}}}{{\sigma _x^2 + \sigma _y^2{\rm{ + }}{C_2}}}$$

    采用$\left( {\frac{{{\mu _i} - {\mu _x}}}{{{\sigma _x}}},\frac{{{y_i} - {\mu _y}}}{{{\sigma _y}}}} \right)$来计算结构相似度s(x, y),定义为:

    $$s(x,y) = \frac{{2{\sigma _{xy}} + {C_3}}}{{{\sigma _x} + {\sigma _y} + {C_3}}}$$

    式中:σxy为参考图像信号x和失真图像信号y的相关系数,计算为:

    $${\sigma _{xy}} = \frac{1}{{N - 1}}\sum\limits_{i = 1}^N {\left( {{x_i} - {\mu _x}} \right)\left( {{y_i} - {\mu _y}} \right)} $$

    上述公式中的C1C2C3为引入常数,避免μx2+μy2σx2+σy2值接近0时引起公式无意义。

    在实际操作过程中,通常引入参数α, β, γ>0调整亮度、对比度和结构性信息的权重,确定较为合适的SSIM值,定义如下:

    SSIM=[l(x, y)]α[c(x, y)]β[s(x, y)]γ

    在评价被测图像质量时,SSIM算法用一定尺寸的窗口沿图像逐像素地从左上角到右下角移动,每次计算两幅图像中窗口对应子图像的SSIM值。得到的所有子图像的SSIM值的平均即为该待测图像相较于模板图像的相似度,记为MSIMM(X, Y)表示为:

    $${\rm{MSIMM}}(X,Y) = \sum\limits_{j = 1}^M {{\rm{SSIM}}\left( {{X_j},{Y_j}} \right)} $$

    式中:M为子图像块的数量。

    异常诊断软件主要根据SSIM算法计算得到的待测图像与模板图像的相似度判定待测设备是否出现故障。软件运行情况如图 2,诊断流程主要包括:确定模板图像、选定相似度判决阈值、SSIM算法计算相似度、实时检测筛选异常图像并对异常信息做出警告与记录。其主要步骤如下:

    图  2  软件运行界面
    Figure  2.  Interface of the fault diagnosis software

    1)确定模板图像:对于直视型微光装备可靠性试验而言,通常在一个大的、较为黑暗条件下的工房中或晚上照度较小的野外进行。SSIM算法需提前确定好模板图像,即提前将直视型微光装备的视场固定。模板图像作为判定被试装备异常的基础,在选取过程中需严格控制相关外部条件。在视场中心放置一个特征明显、占据直视型微光装备目镜视场1/3~2/3视场的物体,同时控制现场外部光线不出现明显变化,保证直视型微光装备空间位置不变,点击软件拍照功能,存储为模板;

    2)相似度判决阈值确定:正式试验前,录制一段被试品目镜视场的视频,期间通过人为开关机操作和遮挡目镜镜头等方式模拟故障,将视频逐帧图像与选定的模板进行比较,得到系列相似度值,将其与故障现象对照,确定出故障出现的最大相似度值,进而作为相似度判决阈值;

    3)对于筛选出的异常图像,需发出警告信息并记录序号和时间信息,与图像一起存入告警文件夹。

    本文基于MATLAB GUI设计开发直视型微光装备可靠性自动诊断软件,界面如图 2所示。

    根据1.2的描述选择图像采集设备,按照图 3所示的方式通过转接环连接图像采集设备与直视型微光装备目镜。被试微光夜视仪开机,通过相机参数调节,使拍摄到的图像满足观察和软件处理需求。本文实践中依据测试实际情况设置相机采样频率为1 Hz。

    图  3  图像采集设备与被测设备连接图
    Figure  3.  Connection diagram of image acquisition device and equipment under test

    设置模板图像为设备正常工作时相机传回的监视图像,如图 4

    图  4  模板图像
    Figure  4.  Template image

    直视型微光装备可靠性试验主要检测一定工作时间内装备是否正常工作,可能出现的故障有:设备非正常关机、图像质量非正常变化等[3, 13]。故障发生时,监视器中的图像主要表现为:视场出现黑斑、十字刻度消失、黑屏。

    采集过程中,通过人为开关机操作和遮挡被试品目镜镜头等方式模拟微光夜视仪可靠性试验过程中出现故障的情况,可覆盖故障时视场变化情况。共获得93幅图像,其中故障图像15幅,如图 5(下标为对应图像在模拟试验获取的图像序列中的编号),构成本文装备可靠性试验工作图像数据集。

    图  5  故障模拟图像
    Figure  5.  Fault simulation images

    利用SSIM算法进行图像相似度计算,采集的监视图像与模板图像相似度计算结果如图 6所示;根据图像序号挑选出相似度小于设定阈值(根据SSIM分布特征和历史经验数据提前确定,本文取0.5)的图像,用“*”表示,这些图像正是数据集中模拟所得的故障图像。故障检测率达到100%且未出现虚警。

    图  6  相似度计算结果
    Figure  6.  Results of similarity calculation

    该试验证明,通过合理地设置相似度阈值,SSIM算法能够准确地诊断出可靠性试验过程中,被试装备图像的异常情况。

    直视型微光装备的可靠性试验一般在暗室条件下进行。由于装备对环境照度变化十分敏感,需要保持室内环境照度相对稳定。实际试验中,物体移动、光源发生变化等都会引起室内环境照度不同程度变化[14-15]图 7(a)显示了某次试验中模拟人员走动、开关门和使用手机时暗室环境的照度变化曲线,图 7(b)展示了采集的对应图像与模板图像的SSIM值。其中,用“*”标记的点为与模板图像相似度小于0.5的图像。可以看到,微小的照度变化引起了被试品图像的显著变化。图 8(下标为对应图像在模拟试验获取的图像序列中的编号)展示了部分相似度小于0.5也被错误识别为异常的图像。

    图  7  环境照度变化对相似度计算结果的影响
    Figure  7.  Influence of environmental illumination changes on the results of similarity calculation
    图  8  因环境照度变化时被误识别为故障的图片
    Figure  8.  Images misidentified as malfunction due to changes in environmental illuminance

    可见,室内照度变化会显著影响SSIM算法图像诊断的准确性。在实际可靠性试验过程中,应该尽可能保证室内照度的稳定,从而提高算法诊断的准确性。

    本文针对传统的直视型微光装备可靠性试验故障诊断中的不足,讨论了一种基于机器视觉的自动故障诊断方法。该方法通过设计转接环连接工业相机与被试装备目镜,自动采集传输监视图像,采用SSIM算法计算测试图像与模板的相似度从而判断设备是否发生异常。实践表明该方法很好地符合了人工视觉观察判断的结果,可为实现装备可靠性自动故障检测提供有力支撑,同时指出试验环境照度变化对试验结果的显著影响。

  • 图  1   双支路自适应目标检测网络整体结构

    Figure  1.   The overall structure of the dual-branch adaptive object detection network

    图  2   特征提取子模块

    Figure  2.   Feature extraction submodules

    图  3   特征融合模块

    Figure  3.   Feature fusion modules

    图  4   金字塔检测结构

    Figure  4.   Pyramid detection structure

    图  5   单支路与融合支路目标检测结果

    Figure  5.   Single branch and fusion branch object detection results

    图  6   红外-可见光网络检测效果对比

    Figure  6.   Comparison of infrared-visible network detection effects

    图  7   变电站设备检测效果对比

    Figure  7.   Comparison of substation equipment detection effects

    表  1   特征提取结构

    Table  1   Feature extraction structure

    Stage Layer structure Repetitions Output size
    Original RGB, 3 1 448×448
    Init Conv 3×3, 13
    Max pooling 2×2, 3
    1 224×224
    Stage1 DWconv 3×3, 32
    Residual
    1 112×112
    Stage2 DWconv 3×3, 64
    Residual
    2 56×56
    Stage3 DWconv 3×3, 128
    Residual
    4 28×28
    Stage4 DWconv 3×3, 256
    Residual
    4 14×14
    Stage5 DWconv 3×3, 512
    Residual
    2 7×7
    下载: 导出CSV

    表  2   可见光网络测试结果对比

    Table  2   Comparison of visible network test results

    Network FPS Test accuracy/(%)
    mAP mAPs mAPm mAPl
    Faster RCNN[13] 25 71.9 52.2 73.2 82.6
    YOLO[14] 66 67.5 49.1 70.6 78.9
    Shuffle+SSD[15] 113 65.6 46.1 68.3 75.3
    Visible-light branch 93 67.3 48.5 70.1 77.6
    下载: 导出CSV

    表  3   不同结构测试结果

    Table  3   Different dilation rates test results

    Network FPS Test accuracy /(%)
    mAP mAPs mAPm mAPl
    Infrared branch 94 61.0 45.3 64.2 71.8
    Visible-light branch 93 67.3 48.5 70.1 77.6
    Eltwise Fusion 81 70.4 51.1 73.8 80.1
    Concat Fusion 79 71.6 52.3 74.2 81.6
    This paper 78 73.8 54.3 75.1 83.2
    下载: 导出CSV

    表  4   同类型网络测试结果对比

    Table  4   Comparison of test results of the same type of network

    Network FPS Test accuracy/(%)
    AP APs APm APl
    Literature[7] 83 68.1 49.5 71.0 76.3
    Literature [8] 51 74.0 54.0 76.5 84.1
    Literature [19] 73 72.2 51.2 74.6 81.5
    This paper 78 73.8 54.3 75.1 83.2
    下载: 导出CSV

    表  5   可见光网络测试结果对比

    Table  5   Comparison of visible network test results

    Network FPS Test accuracy /(%)
    AP APs APm APl
    Literature[7] 21 73.2 54.1 76.6 81.4
    Literature [8] 13 78.2 58.9 81.4 88.7
    Literature [19] 17 76.9 56.2 78.3 86.6
    This paper 20 78.1 59.1 80.8 88.4
    下载: 导出CSV
  • [1] 孙怡峰, 吴疆, 黄严严, 等. 一种视频监控中基于航迹的运动小目标检测算法[J]. 电子与信息学报, 2019, 41(11): 2744-2751. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201911028.htm

    SUN Yifeng, WU Jiang, HUANG Yan, et al. A track based moving small target detection algorithm in video surveillance [J]. Journal of Electronics and Information, 2019, 41(11): 2744-2751. https://www.cnki.com.cn/Article/CJFDTOTAL-DZYX201911028.htm

    [2]

    LIN C, LU J, GANG W, et al. Graininess-aware deep feature learning for pedestrian detection[J]. IEEE Transactions on Image Processing, 2020, 29: 3820-3834. DOI: 10.1109/TIP.2020.2966371

    [3] 范丽丽, 赵宏伟, 赵浩宇, 等. 基于深度卷积神经网络的目标检测研究综述[J]. 光学精密工程, 2020, 28(5): 161-173. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202005019.htm

    FAN Lili, ZHAO Hongwei, ZHAO Haoyu, et al. Overview of target detection based on deep convolution neural network[J]. Optical Precision Engineering, 2020, 28(5): 161-173. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202005019.htm

    [4] 赵永强, 饶元, 董世鹏, 等. 深度学习目标检测方法综述[J]. 中国图象图形学报, 2020, 288(4): 5-30. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202004001.htm

    ZHAO Yongqiang, RAO yuan, DONG Shipeng, et al. Overview of deep learning target detection methods[J]. Chinese Journal of Image and Graphics, 2020, 288(4): 5-30. https://www.cnki.com.cn/Article/CJFDTOTAL-ZGTB202004001.htm

    [5] 罗会兰, 彭珊, 陈鸿坤. 目标检测难点问题最新研究进展综述[J]. 计算机工程与应用, 2021, 57(5): 36-46. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202105005.htm

    LUO Huilan, PENG Shan, CHEN Hongkun. Overview of the latest research progress on difficult problems of target detection[J]. Computer Engineering and Application, 2021, 57(5): 36-46. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202105005.htm

    [6] 郝永平, 曹昭睿, 白帆, 等. 基于兴趣区域掩码卷积神经网络的红外-可见光图像融合与目标识别算法研究[J]. 光子学报, 2021, 50(2): 15-16. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB202102010.htm

    HAO Yongping, CAO Zhaorui, BAI fan, et al. Research on infrared visible image fusion and target recognition algorithm based on region of interest mask convolution neural network[J]. Acta Photonica Sinica, 2021, 50(2): 15-16. https://www.cnki.com.cn/Article/CJFDTOTAL-GZXB202102010.htm

    [7] 李舒涵, 许宏科, 武治宇. 基于红外与可见光图像融合的交通标志检测[J]. 现代电子技术, 2020, 43(3): 45-49. https://www.cnki.com.cn/Article/CJFDTOTAL-XDDJ202003012.htm

    LI Shuhan, XU Hongke, WU Zhiyu. Traffic sign detection based on infrared and visible image fusion [J]. Modern Electronic Technology, 2020, 43(3): 45-49. https://www.cnki.com.cn/Article/CJFDTOTAL-XDDJ202003012.htm

    [8]

    XIAO X, WANG B, MIAO L, et al. Infrared and visible image object detection via focused feature enhancement and cascaded semantic extension[J]. Remote Sensing, 2021, 13(13): 2538.

    [9]

    Banuls A, Mandow A, Vazquez-Martin R, et al. Object detection from thermal infrared and visible light cameras in search and rescue scenes[C]// 2020 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR). IEEE, 2020: 380-386.

    [10] 李章维, 胡安顺, 王晓飞. 基于视觉的目标检测方法综述[J]. 计算机工程与应用, 2020, 56(8): 7-15. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202008002.htm

    LI Zhangwei, HU Anshun, WANG Xiaofei. Overview of vision based target detection methods[J]. Computer Engineering and Application, 2020, 56(8): 7-15. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202008002.htm

    [11] 汪廷. 红外图像与可见光图像融合研究与应用[D]. 西安: 西安理工大学, 2019.

    WANG Ting. Research and Application of Infrared Image and Visible Image Fusion[D]. Xi'an: Xi'an University of Technology, 2019.

    [12]

    XIANG X, LV N, YU Z, et al. Cross-modality person re-identification based on dual-path multi-branch network[J]. IEEE Sensors Journal, 2019, 19(23): 11706-11713.

    [13]

    REN S, HE K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

    [14]

    Bochkovskiy A, WANG C Y, LIAO H. YOLOv4: Optimal speed and accuracy of object detection[J/OL]. Arxiv Preprint Arxiv, https://arxiv.org/abs/2004.10934.

    [15]

    LIU W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]// European Conference on Computer Vision, 2016: 21-37.

    [16]

    TIAN Z, SHEN C, CHEN H, et al. FCOS: Fully convolutional one-stage object detection[C]// 2019 IEEE/CVF International Conference on Computer Vision (ICCV). IEEE, 2020: 9626-9635.

    [17]

    DUAN K, XIE L, QI H, et al. Location-sensitive visual recognition with cross-IOU loss[J/OL]. Arxiv Preprint Arxiv, https://arxiv.org/abs/2104.04899.

    [18]

    LI C, ZHAO N, LU Y, et al. Weighted sparse representation regularized graph learning for RGB-T object tracking[C]// ACM on Multimedia Conference. ACM, 2017: 1856-1864.

    [19] 白玉, 侯志强, 刘晓义, 等. 基于可见光图像和红外图像决策级融合的目标检测算法[J]. 空军工程大学学报, 2020, 21(6): 53-59. https://www.cnki.com.cn/Article/CJFDTOTAL-KJGC202006009.htm

    BAI Yu, HOU Zhiqiang, LIU Xiaoyi, et al. Target detection algorithm based on decision level fusion of visible and infrared images[J]. Journal of Air Force Engineering University, 2020, 21(6): 53-59. https://www.cnki.com.cn/Article/CJFDTOTAL-KJGC202006009.htm

图(7)  /  表(5)
计量
  • 文章访问数:  773
  • HTML全文浏览量:  129
  • PDF下载量:  168
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-11-28
  • 修回日期:  2022-01-27
  • 刊出日期:  2022-09-19

目录

/

返回文章
返回