CSS-SIFT Composite Image Registration Algorithm
-
摘要: 针对SIFT算法的图像配准耗时长的问题,提出一种CSS-SIFT复合图像配准算法。CSS-SIFT算法首先使用CSS算法检测图像特征,然后,使用优化的SIFT算法生成并降维图像特征描述子,最后,使用基于欧式距离和曼哈顿距离的优化双向匹配算法对图像特征进行匹配。仿真实验条件是通过计算机中仿真软件进行仿真实验,统计图像特征数目、匹配数目、正确匹配数目、配准准确率、配准时间与配准时间下降率共6个指标数据,统计结果表明,CSS-SIFT算法在图像配准准确度方面与传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法相当,但在图像配准耗时方面分别降低了58.45%、10.68%、14.84%、16.21%与4.63%,为图像配准提供了一种解决方案。
-
关键词:
- 尺度不变特征变换算法 /
- 加速稳健特征算法 /
- 曲率尺度空间算法 /
- 图像配准
Abstract: To address the time-consuming problem of image registration in the scale-invariant feature transform(SIFT) algorithm, a curvature scale space (CSS)-SIFT composite image registration algorithm is proposed in this paper. First, the CSS-SIFT algorithm uses the CSS algorithm to extract image features. Image feature descriptors are then generated and reduced by the optimized SIFT algorithm. Finally, an optimized two-way matching algorithm based on Euclidean and Manhattan distances is used for matching.A simulation experiment is conducted using simulation software, and six parameters of index data are employed, including the number of image features, number of matches, number of correct matches, registration accuracy, registration time, and registration time decline rate. Statistical results show that the CSS-SIFT algorithm performs as well as the following algorithms in terms of accuracy of image registration: traditional SIFT, traditional speeded-up robust features, Forstern-SIFT, Harris-SIFT, and Trajkovic-SIFT. In addition, time-consumption of image registration is reduced by 58.45%, 10.68%, 14.84%, 16.21%, and 4.63%, respectively, thus providing an effective solution for image registration.-
Keywords:
- SIFT algorithm /
- SURF algorithm /
- CSS algorithm /
- image registration
-
0. 引言
图像配准方法普遍应用于增强现实[1]、双目视觉[2]、全景拼接[3]等研究方向。2004年David Lowe团队提出的尺度不变特征变换(Scale Invariant Feature Transform,SIFT)算法[4-5]是图像配准算法的里程碑,该算法保持了目标平移、旋转与缩放等变化的不变性,国内外科研者根据SIFT算法实现原理将其分为3个部分,分别是图像特征检测、描述子向量形成和匹配,其中为了解决SIFT算法3个部分耗时长的问题,2004年,Yan Ke团队将主成分分析(Principle Component Analysis,PCA)算法[6]融入到SIFT算法中,即PCA-SIFT算法[7];2006年,Herbert Bay团队在SIFT算法的研究基础上提出了加速稳健特征(Speeded Up Robust Features,SURF)算法[8],该算法主要有两方面的优化,一是使用Hessian矩阵提升图像特征的检测速度,二是使用Haar小波生成64维描述子向量以提升图像特征的匹配速度;2014年和2015年,杨飒团队和赵爱罡团队提出使用压缩感知原理(Compressed Sensing Principle,CSP)[9]对图像特征描述子向量降维,降低了图像特征匹配时间[10-11];2017年,韩超团队将Trajkovic角点检测算法[12]与稀疏降维原理融入到传统SIFT算法中,得到Trajkovic-SDR-SIFT算法[13];2018年,胡为团队利用内部矩阵外部圆形原理将128维图像特征描述子向量降维到24维,并采用随机抽样一致性(Random Sample Consensus,RANSAC)算法[14]进行图像特征的精匹配,最终结果是优化方法在速度和准确率方面都有显著的提高[15];2019年,迟英朋团队将指数加权平均比率算子(Ratio of Exponentially Weighted Averages,ROEWA)算法[16]和OTSU算法[17]融入到传统SIFT算法中,提升了图像特征配准的准确率[18];2020年,程德强团队利用Sobel算法[19]优化传统SIFT算法图像特征描述子部分,再使用欧式距离算法和领域投票方法进行图像特征的匹配,优化SIFT算法在配准准确率和执行速度方面都有一定的提升[20]。
本文针对传统SIFT算法图像配准耗时长的问题,选用曲率尺度空间(Curvature Scale Space,CSS)算法[21]、优化SIFT描述子和优化双向匹配算法对传统SIFT算法进行优化,得到一种CSS-SIFT算法。
1. CSS-SIFT算法
传统SIFT算法按照实现原理分成3个部分:①图像特征的检测;②图像特征分配描述子向量;③图像特征的匹配。CSS-SIFT算法根据传统SIFT算法的实现原理,先使用CSS算法检测图像特征,然后使用优化SIFT描述子生成128维图像特征描述子向量并利用稀疏投影原理将其降维到24维,最后利用基于欧式距离和曼哈顿距离相结合的优化方法实现相似性距离匹配,即CSS-SIFT算法,CSS-SIFT算法的流程框图如图 1所示。
1.1 图像特征的检测
CSS-SIFT算法采用CSS图像特征检测算法[21]检测图像特征,CSS图像特征检测算法是Mokhtarian和Suomela等人于1998年提出的一种图像特征检测算法,该算法的图像特征检测步骤如下:
第一步:对待配准图像进行灰度化处理,得到灰度图像;
第二步:以灰度图像为对象,采用Canny算法[22]对其进行处理,得到二值图像;
第三步:从二值图像中提取边缘轮廓,并填充边缘轮廓中的间隙,找到T型特征;
第四步:计算所有边缘轮廓在低尺度下的曲率;
第五步:统计低尺度下的曲率,将局部极大曲率值对应的图像特征作为备选特征;
第六步:从最低尺度到最高尺度追踪备选特征来提升定位;
第七步:比较T型特征和备选特征,剔除两个相近特征中的一个。
1.2 优化SIFT描述子
将稀疏投影原理融入到传统SIFT描述子中得到优化SIFT描述子,优化SIFT描述子包括两个阶段,一是生成128维图像特征描述子向量,该阶段和传统SIFT描述子相同,二是使用稀疏投影原理对图像特征描述子向量进行降维,在仿真实验中发现当图像特征描述子向量降到12维,图像的匹配速度有较大的提升,但由于图像特征的维数过低,导致图像特征的匹配数目降低,匹配效果不理想,因此综合考虑选择图像特征描述子向量为24维。
假定128维图像特征描述子向量为K,利用128×128维小波变换基矩阵ψ将128维图像特征描述子向量转换成128维稀疏向量Y,再利用24×128维的随机投影矩阵R∈R24×128将128维稀疏向量Y降维为24维测量向量K’,将得到24维测量向量K’作为图像特征描述子向量,如式(1)所示:
$$ \mathit{\boldsymbol{K'}} = \mathit{\boldsymbol{R\psi }} = \mathit{\boldsymbol{R\psi K}} $$ (1) 式中:K’表示24维测量向量;R表示24×128维的随机投影矩阵;Y表示128维的稀疏向量;ψ表示128×128维的小波变换基矩阵;K表示128维的图像特征描述子向量。
1.3 图像特征的匹配
本文在图像特征的匹配阶段采用欧式距离和曼哈顿距离相结合的相似性距离算法进行双向匹配。假定对图像A与图像B进行图像配准,先设定图像A中特征描述子向量为Ui(x1, x2, x3, …, x22, x23, x24)和图像B中特征描述子向量为Vj(y1, y2, y3, …, y22, y23, y24),则图像A到图像B的图像特征匹配采用欧式距离作为相似性距离,欧式距离定义式如式(2)所示,图像B到图像A的图像特征匹配采用曼哈顿距离作为相似性距离,曼哈顿距离定义式如式(3)所示:
$$ d\left( {{U_i}, {V_j}} \right) = \sqrt {\sum\limits_{m = 1}^{24} {\left( {{x_m} - {y_m}} \right)} } $$ (2) $$ d\left( {{V_j}, {U_i}} \right) = \sum\limits_{m = 1}^{24} {\left| {{y_m} - {x_m}} \right|} $$ (3) 式中:xm表示图像A中特征描述子向量的元素;ym表示图像B中特征描述子向量的元素;d(Ui, Vj)表示图像A到图像B的特征相似性距离值,d(Vj, Ui)表示图像B到图像A的特征相似性距离值。
假定图像A和图像B的特征集分别是U和V,其中的元素分别是Ui和Vj,图像特征的匹配步骤如下:
1)首先以图像A特征集U中的图像特征Ui为参考对象,使用公式(2)遍历图像B特征集V中的图像特征,得到d的最小值对应的最近邻图像特征V1j和次最小值对应的次最近邻图像特征V2j;然后比较d的最小值与次最小值的比值是否满足公式(4),如果满足,则图像B特征集V中的图像特征V1j与图像A特征集U中的图像特征Ui是一对匹配图像特征;最后遍历图像A特征集U中所有图像特征,得到图像特征匹配集O;
$$ \frac{{d\left( {{U_i}, {V_{1j}}} \right)}}{{d\left( {{U_i}, {V_{2j}}} \right)}} < {T_{{\rm{h1}}}} $$ (4) 式中:d(Ui, V1j)、d(Ui, V2j)分别表示特征集U中的特征Ui与特征集V中的最近邻特征V1j、次最近邻特征V2j的相似性距离值,Th1表示阈值,本文设定Th1的值为0.75。
2)以图像B特征集V为参考对象,使用公式(3)和公式(5)在图像A特征集U中寻找匹配图像特征,得到图像特征匹配集H;
$$ \frac{{d\left( {{V_i}, {U_{1j}}} \right)}}{{d\left( {{V_i}, {U_{2j}}} \right)}} < {T_{{\rm{h2}}}} $$ (5) 式中:d(Vi, U1j)、d(Vi, U2j)分别表示特征集V中的特征Vi与特征集U中的最近邻特征U1j、次最近邻特征U2j的相似性距离值,Th2表示阈值,本文设定Th2的值为0.75。
3)比较图像特征匹配集O与图像特征匹配集H中匹配图像特征,取出完全相同的匹配图像特征组成最终的图像特征匹配集F。
2. 实验结果
实验仿真软件为MATLAB R2014a,实验仿真硬件为计算机,计算机的中央处理器配置是Intel Core i3-3240 CPU @ 3.40 GHz、四核CPU、内存配置是4096MB RAM、操作系统配置是Windows 7旗舰版32位。
仿真实验分成2个阶段:①选择3种类型图像作为实验一的源图像、右视图像、下视图像、形变图像和旋转图像,分别是立体匹配库中的Tsukuba图像、异源融合库中Kaptein红外图像和Normal Brain Database库中的MR_T1脑部医学图像;②从立体匹配库中分别随机选取100、200、300、400对待配准图像作为实验二的图像库,实验二图像库中仅有源图像和右视图像,以验证CSS-SIFT算法的可靠性和实用性。
图 2(a)~(e)分别是立体匹配库中的Tsukuba可见光源图像、右视图像、下视图像、形变图像和旋转图像,像素大小为384×288;图 2(a2)~(e2)是异源融合库中Kaptein红外源图像、右视图像、下视图像、形变图像和旋转图像,像素大小为550×400;图 2(a3)~(e3)是Normal Brain Database库中的MR_T1脑部医学源图像、右视图像、下视图像、形变图像和旋转图像,图像为165×200像素。
实验一分别使用传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法和CSS-SIFT算法共6种算法对实验一图像进行配准实验,实验步骤首先图 2(a)分别与图 2(b)~(e)进行配准实验,总共24组实验;然后图 2(a2)分别与图 2(b2)~(e2)进行图像配准实验,总共24组实验;最后图 2(a3)分别与图 2(b3)~(e3)进行配准实验,总共24组实验,即源-右视配准、源-下视配准、源-形变配准和源-旋转配准。实验一得到图像特征的检测结果如图 3(a)~(r)、图 4(a)~(r)、图 5(a)~(r)、图 6(a)~(r)与图 7(a)~(r)所示,图像特征的匹配结果如图 8(a)~(l)、图 9(a)~(l)、图 10(a)~(l)、图 11(a)~(l)、图 12(a)~(l)与图 13(a)~(l)所示。
实验一为了能够对比各算法之间的效率,选择图像特征数目、匹配数目、正确匹配数目、配准准确率、配准时间与配准时间下降率一共6个参数作为评价指标,其中图像特征配准准确率和图像配准时间下降率的计算公式如式(6)和(7)所示。实验一的评价指标对比分析图如图 14(a)~(f)所示,通过图 14(d)可知,CSS-SIFT算法与传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法和Trajkovic-SIFT算法相比,图像特征配准准确率相当。通过图 14(f)可知,CSS-SIFT算法与传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法和Trajkovic-SIFT算法相比,图像配准速度方面有一定的提升。
$$ 图像特征配准准确率{\rm{ = }}\frac{{图像特征正确配准数目}}{{图像特征配准数目}} $$ (6) $$ 图像配准时间下降{\rm{ = }}\frac{{{T_{传统算法}} - {T_{新颖算法}}}}{{{T_{传统算法}}}} $$ (7) 图 14 图像配准的对比分析图Figure 14. Comparison analysis graphs of image registrationT: Tsukuba visible images; K: Kaptein infrared images; M: MR_T1 medical images;
SIFT: Traditional SIFT algorithm; SURF: Traditional SURF algorithm; F-SIFT: Forstern-SIFT algorithm;
H-SIFT: Harris-SIFT algorithm; T-SIFT: Trajkovic-SIFT algorithm; C-SIFT: CSS-SIFT algorithm图 3(a)~(r)、图 4(a)~(r)、图 5(a)~(r)、图 6(a)~(r)与图 7(a)~(r)表示使用传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法和CSS-SIFT算法共6种算法分别对实验一源图像、右视图像、下视图像、形变图像和旋转图像的特征检测结果图。
图 8(a)~(l)、图 9(a)~(l)、图 10(a)~(l)、图 11(a)~(l)、图 12(a)~(l)、图 13(a)~(l)分别表示使用传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法和CSS-SIFT算法对实验一中3种类型图像的匹配结果图,其中每种类型图像都包括源-右视、源-下视、源-形变和源-旋转,源-右视表示源图像与右视图像之间的配准、源-下视表示源图像与下视图像之间的配准、源-形变表示源图像与形变图像之间的配准和源-旋转表示源图像与旋转图像之间的配准。
图 14(a)~(f)表示使用传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法与CSS-SIFT算法分别对实验一待配准图像的特征检测数目、匹配数目、正确匹配数目、配准准确率、配准时间、配准时间下降率的对比分析图。
实验二分别使用传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法与CSS-SIFT算法分别对包含100对、200对、300对、400对配准图像的图像集进行仿真实验,为了对比各算法之间的效率,选择图像特征配准准确率和图像配准时间两个参数作为统计指标,计算公式如式(6)和(7)所示,统计结果如表 1所示,从表 1中数据分析可知,CSS-SIFT算法与传统SIFT算法、传统SURF算法、Forstern-SIFT算法、Harris-SIFT算法、Trajkovic-SIFT算法在图像特征配准准确率方面相当,在图像配准时间方面降低了58.45%、10.68%、14.84%、16.21%与4.63%。
表 1 不同规模图像集的图像配准时间、准确率比较Table 1. The comparison of the image registration time, accuracy of different scale image sets100 200 300 400 time/s accuracy/% time/s accuracy /% time/s accuracy /% time/s accuracy /% SIFT 735.6 92.28 1502.6 92.10 2305.9 91.89 2985.9 91.96 SURF 335.9 92.52 685.2 92.46 1008.3 92.09 1388.9 92.33 F-SIFT 344.8 93.02 700.3 92.33 1076.3 92.56 1456.8 93.01 H-SIFT 360.7 92.86 730.4 92.54 1082.6 93.03 1480.6 92.48 T-SIFT 318.6 91.89 640.1 92.36 960.7 92.99 1300.8 92.91 C-SIFT 303.7 92.26 618.9 92.37 930.3 92.38 1240.6 92.56 表 1中SIFT代表传统SIFT算法,SURF代表传统SURF算法,F-SIFT代表Forstern-SIFT算法,H-SIFT代表Harris-SIFT算法,T-SIFT代表Trajkovic-SIFT算法,C-SIFT代表CSS-SIFT算法,时间代表图像配准时间,单位是秒。准确率代表图像特征配准准确率,单位是%。
3. 结论
本文首先根据传统SIFT算法存在的问题提出了CSS-SIFT算法,然后通过仿真实验与其它优化算法作对比分析发现,CSS-SIFT算法在配准准确率相当的情况下提升了配准速度,为图像配准实时性要求比较高的应用场景提供了一种的解决方案。
-
图 14 图像配准的对比分析图
Figure 14. Comparison analysis graphs of image registration
T: Tsukuba visible images; K: Kaptein infrared images; M: MR_T1 medical images;
SIFT: Traditional SIFT algorithm; SURF: Traditional SURF algorithm; F-SIFT: Forstern-SIFT algorithm;
H-SIFT: Harris-SIFT algorithm; T-SIFT: Trajkovic-SIFT algorithm; C-SIFT: CSS-SIFT algorithm表 1 不同规模图像集的图像配准时间、准确率比较
Table 1 The comparison of the image registration time, accuracy of different scale image sets
100 200 300 400 time/s accuracy/% time/s accuracy /% time/s accuracy /% time/s accuracy /% SIFT 735.6 92.28 1502.6 92.10 2305.9 91.89 2985.9 91.96 SURF 335.9 92.52 685.2 92.46 1008.3 92.09 1388.9 92.33 F-SIFT 344.8 93.02 700.3 92.33 1076.3 92.56 1456.8 93.01 H-SIFT 360.7 92.86 730.4 92.54 1082.6 93.03 1480.6 92.48 T-SIFT 318.6 91.89 640.1 92.36 960.7 92.99 1300.8 92.91 C-SIFT 303.7 92.26 618.9 92.37 930.3 92.38 1240.6 92.56 -
[1] 谢金哲.增强现实中的图像配准方法研究[D].长沙: 国防科学技术大学, 2014. XIE Jinzhe. Research on Image Registration Methods for Augmented Reality[D]. Changsha: National University of Defense Technology, 2014.
[2] 徐鹏.双目视觉的图像配准与拼接及其应用[D].重庆: 重庆邮电大学, 2019. XU Peng. Image Registration And Stitching of Binocular Vision and Its Application[D]. Chongqing: Chongqing University of Posts and Telecommunications, 2019.
[3] 章盛.图像拼接算法的优化及漫游系统的研究[D].芜湖: 安徽工程大学, 2016. ZHANG Sheng. Optimization of Image Stitching Algorithm and Research of Roaming System[D]. Wuhu: Anhui Polytechnic University, 2016.
[4] Lowe D G. Object recognition from local scale-invariant features[C]// Proceedings of the International Conference on Computer Vision, 1999: 1150-1157.
[5] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91- 110. DOI: 10.1023/B:VISI.0000029664.99615.94
[6] Jolliffe I T. Principal Component Analysis[M]. New York: Springer- Verlag New York Inc, 2002.
[7] Ke Y, Sukthankar R. PCA-SIFT: A more distinctive representation for local image descriptors[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004: 511-517.
[8] Bay H, Tuytelaars T, Gool L V. SURF: Speeded up robust features[C]// Proceedings of the European Conference on Computer Vision, 2006: 404-417.
[9] 刘芳, 武桥, 杨淑媛, 等.结构化压缩感知研究进展[J]. 自动化学报, 2013, 39(12): 1980- 1995. LIU Fang, WU Qiao, YANG Shuyuan, et al. Research advances on structured compressive sensing[J]. Acta Automatica Sinica, 2013, 39(12): 1980-1995.
[10] 杨飒, 杨春玲.基于压缩感知与尺度不变特征变换的图像配准算法[J]. 光学学报, 2014, 34(11): 1110001-1-1110001-5. YANG Sa, YANG Chunling. Image registration algorithm based on sparse random projection and scale-invariant feature transform[J]. Acta Optica Sinica, 2014, 34(11): 1110001s-1-1110001-5.
[11] 赵爱罡, 王宏利, 杨小冈, 等.融合几何特征的压缩感知SIFT描述子[J]. 红外与激光过程, 2015, 44(3): 1085-1091. ZHAO Aigang, WANG Hongli, YANG Xiaogang, et al. Compressed sense SIFT descriptor mixed with geometrical feature[J]. Infrared and Laser Engineering, 2015, 44(3): 1085-1091.
[12] Trajkovic M, Hedley M. Fast corner detection[C]//Image and Vision Computing, 1988: 75-87.
[13] 韩超, 方露, 章盛.一种优化的图像配准算法[J]. 电子测量与仪器仪表, 2017, 31(2): 178-184. HAN Chao, FANG Lu, ZHANG Sheng. An optimized image registration algorithm[J]. Journal of Electronic Measurement and Instrumentation, 2017, 31(2): 178-184.
[14] Fischler M A, Bolles R C. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography[J]. Communications of the ACM, 1981, 24(6): 381-395. DOI: 10.1145/358669.358692
[15] 胡为, 刘兴雨.基于改进SIFT算法的单目SLAM图像匹配方法[J]. 电光与控制, 2019, 26(5): 7-13. HU Wei, LIU Xingyu. A Monocular SLAM Image Matching Method Based on Improved SIFT Algorithm[J]. Electronics Optics & Control, 2019, 26(5): 7-13.
[16] Fjortoft R, Lopes A, Marthon P, et al. An optimal multiedge detectors for SAR Image segmentation[J]. IEEE Transactions on Geoscience and Remote Sensing, 1998, 36(3): 793-802. DOI: 10.1109/36.673672
[17] OTSU N. A threshold selection method from gray level histograms[J]. IEEE Transactions on SMC, 1979, 9(1): 62-69.
[18] 迟英鹏, 刘畅.一种适用于SAR图像配准的改进SIFT算法[J]. 中国科学院大学学报, 2019, 36(2): 259-266. CHI Yingpeng, LIU Chang. An improved SIFT algorithm for SAR image registration[J]. Journal of University of Chinese Academy of Sciences, 2019, 36(2): 259-266.
[19] 陆宗骐, 梁诚.用Sobel算子细化边缘[J]. 中国图象图形学报, 2000, 5(6): 516-520. DOI: 10.3969/j.issn.1006-8961.2000.06.015 LU Zongqi, LIANG Cheng. Edge thinning based on Sobel Operator[J]. Journal of Image and Graphics, 2000, 5(6): 516-520. DOI: 10.3969/j.issn.1006-8961.2000.06.015
[20] 程德强, 李腾腾, 郭昕, 等.改进的SIFT领域投票图像匹配算法[J]. 计算机工程与设计, 2020, 41(1): 162-168. CHENG Deqiang, LI Tenten, GUO Xin, et al. Improved SIFT voting image matching algorithm[J]. Computer Engineering and Design, 2020, 41(1): 162-168.
[21] Mokhtarian F, Suomela R. Robust image corner detection through curvature scale space[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(12): 1376-1381. DOI: 10.1109/34.735812
[22] Canny J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.
-
期刊类型引用(3)
1. 黄开基,杨华. 基于深度学习特征的二维图像匹配算法综述. 计算机工程. 2024(10): 16-34 . 百度学术
2. 陆杨,杨茂云. 特征点匹配和互信息融合下连续形变图像配准. 计算机仿真. 2023(08): 182-185 . 百度学术
3. 王钎沣,夏国静,牛鑫鑫,孙阿猛,田波,夏萍. 基于改进的SIFT图像快速拼接方法. 现代电子技术. 2022(08): 159-162 . 百度学术
其他类型引用(7)