基于PA-YOLO v5的印制电路板缺陷检测

陈锦妮, 拜晓桦, 李云红, 田谷丰

陈锦妮, 拜晓桦, 李云红, 田谷丰. 基于PA-YOLO v5的印制电路板缺陷检测[J]. 红外技术, 2024, 46(6): 654-662.
引用本文: 陈锦妮, 拜晓桦, 李云红, 田谷丰. 基于PA-YOLO v5的印制电路板缺陷检测[J]. 红外技术, 2024, 46(6): 654-662.
CHEN Jinni, BAI Xiaohua, LI Yunhong, TIAN Gufeng. PCB Defect Detection Based on PA-YOLO v5[J]. Infrared Technology , 2024, 46(6): 654-662.
Citation: CHEN Jinni, BAI Xiaohua, LI Yunhong, TIAN Gufeng. PCB Defect Detection Based on PA-YOLO v5[J]. Infrared Technology , 2024, 46(6): 654-662.

基于PA-YOLO v5的印制电路板缺陷检测

基金项目: 

陕西省科技计划项目 2022GY-053

详细信息
    作者简介:

    陈锦妮(1980-),女,博士,讲师,主要从事光学信息处理方向。E-mail:396161675@qq.com

  • 中图分类号: TP391.4

PCB Defect Detection Based on PA-YOLO v5

  • 摘要:

    针对印制电路板裸板布局复杂,在对其表面进行缺陷检测时存在被检测图像对比度不高、亮度不均匀、缺陷位置小、形状不规则等特点,在增加网络深度时会造成参数量大、出现过拟合现象、丢失部分特征信息等问题,提出了基于YOLO v5与混合注意力机制融合,精度更高的印制电路板检测模型PA-YOLO v5(precision and attention-YOLO v5),抑制一般特征的干扰,保证网络提取特征时更加关注缺陷目标细节特征。并引用自适应双向特征融合模块(BiFPN)网络,对每个特征图的尺度不同进行充分利用,对不同的检测目标赋予不同权重,提高网络的各个特征表达能力,最后利用FReLU激活函数,通过将ReLU增加空间拓展成为一个2D激活函数,增强感受野对细节捕捉的能力,提高模型的鲁棒性和泛化性。在DeepPCB数据集中对6种缺陷分别进行测试,实验结果表明,文中提出的PA-YOLO v5的检测模型在该数据集上的准确率可达99.4%,并同时设置消融实验和对比实验验证了该模型的有效性。

    Abstract:

    The bare complex layout of PCBs cause low contrast, uneven brightness, small defect positions, and irregular shapes in detected images, resulting in a large number of parameters, overfitting, and loss of feature information with increasing network depth. In this study, a PCB detection model PA-YOLO v5 based on YOLO v5 and mixed attention mechanism fusion with higher accuracy is proposed to suppress interference from general features and ensure that the network pays more attention to the detailed features of defect targets during feature extraction. The adaptive bidirectional feature pyramid network(BiFPN) is taken as reference to fully utilize the different scales of each feature map, thereby assigning different weights to different detection targets, to improve the network's ability to express various features. Finally, the FReLU activation function is used to expand the ReLU space into a 2D activation function, which enhances the receptive field's ability to capture details and improves model robustness and generalization. Six types of defects were tested using the DeepPCB dataset, and the experimental results showed that the proposed PA-YOLO v5 detection model achieved an accuracy of 99.4%. The effectiveness of the model was verified through ablation and comparative experiments.

  • 红外成像技术由于其受环境因素影响小、抗干扰能力强,被广泛应用于军事侦察、安防监控、医学诊断等领域。然而,红外图像拍摄过程中,由于不可避免的摄像设备抖动或目标快速移动导致红外图像出现运动模糊,极大地影响了有效信息的提取和识别,使得红外成像技术优势无法充分发挥。因此,红外图像去模糊的研究具有理论意义和应用价值。

    目前,针对图像去模糊的问题国内外现有方法主要分为两类:传统方法和基于深度学习的方法。传统方法包括逆滤波[1]、维纳滤波(Wiener)[2]和迭代去卷积算法(Lucy-Richardson, LR)[3]等。其中,逆滤波法是最早也是最简单的一种方法,它基于点扩散函数(point spread function, PSF)模型进行去卷积处理,可以恢复原始图像,但对噪声非常敏感,当图像中存在大量噪声时,其去模糊效果就不理想。维纳滤波是一种常用的去噪和去模糊的方法,它结合了图像的频域信息和噪声的统计特性,可以对图像进行较好的恢复,但需要先对PSF进行精确估计。LR算法是一种时域图像复原的算法,其基本原理是通过最大似然估计和贝叶斯理论,对图像进行复原,但复原结果容易产生振铃效应,影响图像质量。这些传统方法计算成本较高,而且受噪声影响较大,因此它们的应用范围受到一定的限制。基于深度学习的去模糊方法近年来得到了迅速的发展,主要包括基于卷积神经网络和基于生成对抗网络等。2014年,Goodfellow等人提出了生成对抗网络(generative adversarial network, GAN)[4],在计算机视觉领域展示了强大的能力。与传统的深度学习网络模型相比,GAN是一种全新的无监督网络架构,通过建立范数约束来实现输出与目标之间的关联。2015年,Sun等人[5]利用卷积神经网络预测图像的运动模糊概率分布情况,并结合图像先验分块进行去模糊处理,相较于传统方法,该方法去模糊效果更好。2017年,Kupyn[6]等人提出了DeblurGAN网络,该网络结合了生成对抗网络和多元内容损失,以实现对运动图像去模糊,可以保存图像的细节纹理特征,相较传统方法更加优良。尽管DeblurGAN取得了较好的效果,但同样也有不足之处,即DeblurGAN在生成网络中无法充分利用图像的特征信息[7],造成DeblurGAN去模糊的图像细节纹理信息有所缺失。

    本文针对红外图像去模糊效果和细节特征保留的问题,本文在DeblurGAN基础上进行改进并提出了一种基于密集残差生成对抗网络的红外图像去模糊方法。在生成网络中,采用多尺度卷积核进行特征提取,更好地捕捉不同尺度下的特征信息;同时采用密集残差块(residual-in-residual dense block, RRDB)代替原网络中的残差单元,解决图像在去模糊过程中发生的细节内容丢失和边缘扭曲问题,并增强网络的表示能力。通过实验证明,本文方法相对于其他方法,在红外图像去模糊方面表现出更好的性能和效果。

    生成对抗网络由Goodfellow等人[4]于2014年提出,是一种由生成网络(Generator, G)和判别网络(Discriminator, D)组成的深度学习模型,通过博弈的方式来学习生成逼真的数据样本。生成网络G的目标是尽可能使生成的样本被判别网络D误认为是真实数据样本,判别网络D的目标是尽可能准确地区分真实数据样本和生成样本。生成网络和判别网络相互对抗、不断学习,最终使得判别网络无法判断生成网络的输出结果是否真实。其网络架构图如图 1所示。

    图  1  GAN网络架构
    Figure  1.  Diagram of GAN network architecture

    GAN的核心原理公式为:

    $$\min\limits_G \max\limits_D V(D, G)=\underset{x \sim P_r}{E} \log D(x)]+\underset{\tilde{x} \sim P_g}{E}[\log (1-D(\tilde{x}))]$$ (1)

    式中:G代表生成网络;D代表判别网络;E表示期望;x属于真实数据集Pr中的数据;$\tilde{x}$属于生成数据Pg中的数据,表示为$\tilde{x}=G(z)$,z为随机噪声。

    生成网络作用在于去除退化红外图像的模糊,生成还原图像,其结构如图 2所示。首先,输入模糊红外图像经过一个多尺度卷积模块(multi-scale convolutional module, MSCM)和两个3×3的卷积层进行卷积实现下采样,从而得到红外图像的特征图。再经过9个密集残差块,进一步加强网络对红外图像的细节特征学习。然后经过两个3×3转置卷积层进行反卷积实现上采样。最后经过一个7×7的卷积层,输出清晰的红外图像。此外,网络加入了全局跳跃连接(global-skip connection),跳跃连接可以在输入和输出之间建立直接连接,帮助网络更好地学习图像细节和纹理,有效减少梯度消失和网络退化的程度,提高网络收敛速度,使训练更容易。

    图  2  去除退化红外图像模糊的改进生成网络结构
    Figure  2.  Structural diagram of improved generative network for removing blur from degraded infrared images

    1)多尺度卷积模块(MSCM)

    本文采用多尺度卷积核代替传统单一卷积核的模式[8],旨在更好地提取浅层特征。由于同一图像的模糊程度会随着尺度的降低而降低,因此可以用不同尺度的特征来处理不同程度的模糊。因为输入图像上各处的模糊程度可能相同,所以采用多尺度卷积核提取不同尺度的特征具有一定的重要性[9]。单一卷积核在处理图像时只能捕捉到固定大小的局部信息,而采用多尺度卷积核进行特征提取,可以帮助图像在不同尺度下采集到不同类型的特征信息,从而获得更加丰富的特征表示。同时通过多尺度卷积核的使用可以增强网络对不同尺度特征的感知能力,提高网络在多尺度图像上的表现,增强鲁棒性。本文提出的多尺度卷积模块结构如图 3(a)所示。模糊红外图像首先经过一个7×7的卷积操作;再经过3个不同尺度的卷积核,分别是1×1、3×3和5×5;最后,将提取到的特征通过拼接的方式进行融合。

    图  3  多尺度卷积模块和密集残差块结构
    Figure  3.  Multi-scale convolutional module and residual-in-residual dense block structure diagrams

    2)密集残差块

    针对红外图像在去模糊过程中,容易发生细节内容丢失的问题,本文采用密集残差块代替DeblurGAN网络中的残差单元,丰富所恢复图片的细节信息。传统的残差单元由于层数较浅,无法捕捉到图像中的复杂纹理和细节信息。本文提出的密集残差块的结构如图 3(b)所示,由4组3×3的卷积层、实例归一化层、激活层经过从前向后依次跳跃连接形成密集块(dense block)。在密集块中,利用密集连接的方式在每个卷积层之间传递信息,以充分利用这些层的信息,使得图像恢复效果更好。相比较传统的密集块,网络结构去掉了BN层,因为BN层在训练期间使用批次中的均值和方差对特征进行归一化,且在测试期间会使用整个训练数据集的估计均值和方差,当训练和测试数据集的统计数据差异很大时,BN层往往会引入伪影,限制泛化能力[10]。并针对去模糊这种需要关注个例均值和方差的任务,使用IN层对单张图片的宽和高进行归一化,可以有助于模型更好地学习图像之间的特征和模式,提高去模糊的效果。为了避免参数过多导致难以训练,最后每个密集块学习到的残差信息乘以0.2进行缩放,并减小初始化参数,增强网络的稳定性。

    判别网络作用是判别原始清晰红外图像与生成网络生成的还原图像。判别网络包括卷积层提取特征、实例归一化进行规范化、LeakyReLU激活函数引入非线性元素以及Sigmoid激活函数产生概率结果。而通过设置LeakyReLU的负值斜率为α=0.2,可以调整激活函数的形状,以更好地适应任务需求。判别网络结构如图 4所示。

    图  4  判别网络结构
    Figure  4.  Discriminant network structure

    本文提出的网络损失函数包括内容损失和对抗损失两部分。总的损失函数表示为:

    $$ L=L_{\rm GAN}+λL_{X} $$ (2)

    式中:LGAN为对抗损失;LX为内容损失;λ为权重常数,取100。

    1)对抗损失

    采用WGAN-GP网络[11]作为对抗损失函数,使用Wasserstein距离来度量生成器和判别器之间的距离,避免GAN中出现训练不稳定或模式崩溃等问题。WGAN-GP的损失函数表示为:

    $$L_{\mathrm{GAN}}=\sum\limits_{n-1}^N-D\left(G\left(I^{\mathrm{B}}\right)\right)$$ (3)

    式中:IB表示输入的模糊图像;G(IB)表示通过生成网络G对模糊图像进行去模糊后输出的图像;D(G(IB))表示对去模糊图像进行概率计算;N表示样本个数。

    2)内容损失

    本文引入感知损失作为网络训练中内容损失函数,以改善生成图像与清晰图像之间的内容一致性。选择在ImageNet[12]上的VGG_19[13]预训练模型,计算感知损失,具体公式为:

    $$L_X=\frac{1}{W_{i, j} H_{i, j}} \sum\limits_{a=1}^{W_{i, j}} \sum\limits_{b=1}^{H_{i, j}}\left(\psi_{i, j}(x)_{a, b}-\psi_{i, j}(\tilde{x})_{a, b}\right)^2$$ (4)

    式中:ψi, j是VGG-19网络中第i个最大池化层之前的第j个卷积层激活后获得的特征图;Wi, jHi, j是特征图的维度。

    目前,由于没有公开用于红外图像去运动模糊的数据集;且深度学习网络训练需要大量成对数据,才可学习到更细致的特征;同时受外部因素影响,在同一条件下拍摄一对清晰和模糊的红外图像存在一定困难。因此,本文采用Kupyn等人[6]提出的方法合成红外运动模糊数据集。通过运动轨迹的随机性,合成图像可模拟多种条件下运动模糊场景,包括相机受迫抖动和物体匀速直线运动等。因此,在难以获得真实运动模糊图像的情况下,采用该方式合成数据集训练深度学习网络模型是合理的。本文采用的图像运动模糊退化模型为:

    $$B(x, y)=I(x, y) K$$ (5)
    $$ K=S(x) $$ (6)

    式中:x是由马尔科夫随机过程生成的随机轨迹向量;I(x, y)表示清晰图像;B(x, y)表示运动模糊图像;K代表模糊核;S(x)表示用亚像素插值算法对x进行计算。

    本文采用FLIR数据集中8862张分辨率为640×512的高质量红外图像作为自制红外模糊数据集的清晰图像。FLIR数据集提供带注释的热成像数据集和相应无注释的RGB图像,用于训练和验证神经网络,数据通过安装在车辆上的RGB相机和热成像相机获得。对清晰红外图像通过模拟生成运动轨迹算法合成运动模糊,最终形成8862对自建红外数据集,将其中的7090对作为训练集,1772对作为测试集。图 5展示了部分红外模糊数据集图像及其对应的模糊核。

    图  5  合成运动模糊红外图像及模糊核
    Figure  5.  Synthetic motion blur infrared image and blur kernel

    实验使用了PyTorch作为网络模型训练框架,在NVIDIA GeForce RTX 3090 GPU上进行训练。批量大小(Batch Size)设置为4,训练周期(Epoch)设置为300。采用Adam优化算法进行网络权重的训练更新,初始学习率设置为10-4,前150个周期学习率均采用初始值,后150个周期内的学习率按线性衰减至0。

    图像去模糊处理的过程中,评价图像复原质量的指标:

    ① 峰值信噪比(PSNR)是输入信号可能功率的最大值和影响信号噪声功率的比值,计算式如式(7)所示。

    $${\rm PSNR}=10 \lg \left(\frac{\left(2^n-1\right)^2}{\frac{1}{H \times W} \sum\limits_{i=1}^H \sum\limits_{j=1}^W(X(i, j)-Y(i, j))^2}\right)$$ (7)

    式中:HW分别为图像的高度和宽度;n为每像素的比特数。PSNR的单位是dB,数值越大表示失真越小。

    ② 结构相似性(SSIM)是用作度量两个给定图像之间的相似性[14],计算式为:

    $$\operatorname{SSIM}(x, y)=\frac{\left(2 \mu_x \mu_y+c_1\right)\left(2 \sigma_{x y}+c_2\right)}{\left(\mu_x^2+\mu_y^2+c_1\right)\left(\sigma_x^2+\sigma_y^2+c_2\right)}$$ (8)

    式中:μxμy分别表示图像XY的均值;σxσy分别表示图像XY的方差;σxy表示图像XY的协方差,c1c2为常数,为了避免分母为0的情况,SSIM取值范围[0, 1],SSIM值越大,表示图像失真越小。

    为了验证本文方法的有效性,采用自制红外图像数据集进行消融实验。在相同的参数设置下,模型分别使用RRDB和RB(DeblurGAN残差单元)对样本进行训练和测试。并引入多尺度卷积模块,以评估本文提出的多尺度卷积模块和密集残差块对红外图像清晰化的有效性,实验结果如表 1图 6所示。

    表  1  消融实验客观评价结果
    Table  1.  Objective evaluation of the results of ablation experiments
    Methods PSNR/dB SSIM
    DeblurGAN(RB) 28.23 0.77
    DeblurGAN+MSCM 28.41 0.79
    RRDB 29.11 0.81
    Ours 31.83 0.86
    下载: 导出CSV 
    | 显示表格
    图  6  不同模块组合去模糊实验结果
    Figure  6.  Experimental results of deblurring with different module combinations

    表 1可知,多尺度卷积模块和密集残差块的增加都会使模型在PSNR和SSIM上有小幅度的提升。图 6(a)(c)分别使用了RB和RRDB网络单元,可以看出两张图片都产生了不同程度的网格效应。使用RB网络单元的去模糊结果显示出较为明显的网格效应,而使用RRDB网络单元的去模糊结果则表现出较轻微的网格效应,看上去更加平滑和自然。相较于使用RB网络单元,使用RRDB网络单元的去模糊效果更出色,纹理更加清晰,细节更加丰富。图 6(b)(d)(a)(c)的基础上加入了多尺度卷积模块,整体去模糊效果更好。此消融实验结果证明了MSCM模块和RRDB模块的有效性,能够更好地恢复图像的细节和清晰度。

    为了进一步验证本文方法的有效性,采用自制红外图像数据集进行对比实验。在相同的实验环境下,分别使用传统图像去模糊方法:Wiener滤波[2]、LR算法[3],基于深度学习的图像去模糊方法:DeblurGAN、SRN-DeblurNet与本文所提出的方法,并对实验结果进行主客观质量评价。Wiener滤波方法通过最小化模糊图像和重建图像之间的均方误差来重建模糊图像;LR算法利用最大似然估计对模糊图像进行迭代求解;DeblurGAN方法采用深层残差网络进行特征提取,并以端到端的方式进行图像盲去模糊;SRN-DeblurNet方法以编码器-解码器为基本网络结构,采用从“粗”到“精”的思想,实现了不同尺度之间参数共享来去模糊。传统图像去模糊方法的最优参数设置是通过迭代算法对所提出测试集中每一张红外图像进行的,基于深度学习的图像去模糊方法训练细节都按照2.2节配置,除了训练的epoch是根据每个网络的收敛速度设置的。

    图 7展示了部分图片去模糊效果对比,使用Wiener滤波方法与LR方法对红外图像进行去模糊效果较差,使用DeblurGAN方法对红外图像进行去模糊有一定效果但效果有限,而使用SRN-DeblurNet方法和本文方法的去模糊效果较为理想。图 8展示了其中一张图片放大两个区域的细节对比,可以明显看出本文方法相比于SRN-DeblurNet方法,去模糊后图像纹理细节更加丰富,且能够有效消除DeblurGAN方法存在的网格效应问题。

    图  7  去模糊效果对比
    Figure  7.  Comparison of de-blurring effects
    图  8  细节对比实验效果
    Figure  8.  Detailed comparison of the experimental effect

    不同方法的客观评价结果如表 2所示。相较于DeblurGAN方法,本文方法PSNR提高了3.60 dB,SSIM提高了0.09;相较于DeblurGAN-v2方法,本文方法PSNR提高了2.22 dB,SSIM提高了0.06;相较于SRN-DeblurNet方法,本文方法PSNR提高了1.73 dB,SSIM提高了0.04。因此,与其他方法相比,本文方法在PSNR和SSIM上取得了显著的改善,证明了本文方法的优越性。

    表  2  不同方法的客观评价结果
    Table  2.  Objective evaluation results of different methodologies
    Methods PSNR/dB SSIM
    Wiener 24.35 0.62
    LR 24.51 0.68
    DeblurGAN 28.23 0.77
    DeblurGAN-v2 29.61 0.80
    SRN-DeblurNet 30.10 0.82
    Ours 31.83 0.86
    下载: 导出CSV 
    | 显示表格

    本文针对红外图像去模糊的问题,提出了一种基于密集残差生成对抗网络的红外图像去模糊方法。该方法在DeblurGAN基础上进行改进,采用多尺度卷积模块和密集残差块,增强了网络提取特征的能力,丰富了红外图像的细节信息。在本课题组自制红外图像数据集上进行消融实验和对比实验,前者证明了多尺度卷积模块和密集残差块对红外图像清晰化的有效性;后者证明了本文方法客观上PSNR比DeblurGAN高3.60 dB,SSIM比DeblurGAN高0.09,同时主观上视觉效果更为理想,更好地辨别出去模糊后红外图像的细节信息。

  • 图  1   YOLO v5s结构

    Figure  1.   YOLO v5s structure diagram

    图  2   最小包围框

    Figure  2.   Minimum bounding box

    图  3   CBAM注意力机制示意框图

    Figure  3.   Schematic diagram of CBAM attention mechanism

    图  4   BiFPN融合网络结构图

    Figure  4.   BiFPN fusion network structure diagram

    图  5   FReLU激活函数工作过程

    Figure  5.   FReLU activation function working process

    图  6   PA-YOLO v5网络模型

    Figure  6.   PA-YOLO v5 network model

    图  7   PCB部分缺陷检测结果示例

    Figure  7.   Example of partial PCB defect test results

    图  8   PA-YOLO v5模型的PR曲线

    Figure  8.   PR curves of PA-YOLO v5 model

    表  1   消融实验对比结果

    Table  1   Comparison results of ablation experiments

    Model Recall Precision mAP
    YOLO v5s 0.971 0.951 0.977
    YOLO-CBAM 0.986 0.973 0.989
    YOLO-BiFPN 0.987 0.964 0.986
    YOLO-FReLU 0.982 0.974 0.990
    PA-YOLO v5 0.993 0.979 0.994
    下载: 导出CSV

    表  2   每个类目标AP测试对比结果

    Table  2   Comparison results of AP tests for each class target (%)

    Model Pin hole Mouse bite Open circuit Spurious copper Spur Short circuit
    Faster RCNN 76.6 72.4 84.6 77.2 70.9 74.9
    SSD 90.8 85.8 86.3 84.3 82.7 78.4
    YOLO v3 96.4 98.7 92.4 90.3 90.2 97.6
    PA-YOLO v5 99.5 99.4 99.4 99.4 99.2 99.3
    下载: 导出CSV

    表  3   mAP及F1测试结果

    Table  3   mAP and F1 test results

    Model mAP(%) F1
    Faster RCNN 77.2 0.58
    SSD 78.9 0.62
    YOLOv3 95.3 0.89
    PA-YOLO v5 99.4 0.99
    下载: 导出CSV
  • [1] 吴一全, 赵朗月, 苑玉彬, 等. 基于机器视觉的PCB缺陷检测算法及展[J]. 仪器仪表学报, 2022, 43(8): 1-17. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202208001.htm

    WU Y, ZHAO L, YUAN Y, et al. PCB defect detection algorithm and development based on machine vision[J]. Journal of Instruments and Meters, 2022, 43(8): 1-17. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202208001.htm

    [2] 王淑青, 鲁濠, 鲁东林, 等. 基于轻量化人工神经网络的PCB板缺陷检测[J]. 仪表技术与传感器, 2022(5): 98-104. https://www.cnki.com.cn/Article/CJFDTOTAL-YBJS202205020.htm

    WANG S Q, LU H, LU D L. PCB board defect detection based on lightweight artificial neural network[J]. Instrument Technique and Sensor, 2022(5): 98-104. https://www.cnki.com.cn/Article/CJFDTOTAL-YBJS202205020.htm

    [3]

    LU S, ZHANG X, KUANG Y. An integrated inspection method based on machine vision for solder paste depositing[C]//2007 IEEE International Conference on Control and Automation, 2007: 137-141.

    [4]

    ZHANG F, QIAO N, LI J. A PCB photoelectric image edge information detection method[J]. Optik, 2017, 144: 642-646. DOI: 10.1016/j.ijleo.2017.07.002

    [5]

    WONG T M, Kahl M, Bolivar P H, et al. Computational image enhancement for frequency modulated continuous wave (FMCW) THz image[J]. Journal of Infrared Millimeter and Terahertz Waves, 2019, 40(7): 775-800. DOI: 10.1007/s10762-019-00609-w

    [6] 郭战岭, 徐雷, 冉光再, 等. 基于ORB算法及图像差分的PCB缺陷检测[J]. 数字技术与应用, 2022, 40(3): 38-41, 142. https://www.cnki.com.cn/Article/CJFDTOTAL-SZJT202203012.htm

    GUO Z, XU L, RAN G, et al. PCB defect detection based on ORB algorithm and image difference[J]. Digital Technology and Applications, 2022, 40(3): 38-41, 142. https://www.cnki.com.cn/Article/CJFDTOTAL-SZJT202203012.htm

    [7] 郭世钢. 基于游程编码的PCB缺陷检测算法[J]. 计算机应用, 2009, 29(9): 2554-2555. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJY200909072.htm

    GUO S. PCB defect detection algorithm based on run length encoding[J]. Computer Application, 2009, 29(9): 2554-2555. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJY200909072.htm

    [8] 朱寒, 林丽, 王健华, 等. 基于改进模板匹配及图像差分法的PCB板缺陷多级检测方法[J]. 应用光学, 2020, 41(4): 837-843. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX202004029.htm

    ZHU H, LIN L, WANG J, et al. A multi-level defect detection method for PCB boards based on improved template matching and image difference method[J]. Applied Optics, 2020, 41(4): 837-843. https://www.cnki.com.cn/Article/CJFDTOTAL-YYGX202004029.htm

    [9] 张子昊, 王蓉. 基于Mobile FaceNet网络改进的人脸识别方法[J]. 北京航空航天大学学报, 2020, 46(9): 1756-1762. https://www.cnki.com.cn/Article/CJFDTOTAL-BJHK202311026.htm

    ZHANG Z, WANG R. Improved face recognition method based on mobile FaceNet network[J]. Journal of Beijing University of Aeronautics and Astronautics, 2020, 46(9): 1756-1762. https://www.cnki.com.cn/Article/CJFDTOTAL-BJHK202311026.htm

    [10] 杜紫薇, 周恒, 李承阳, 等. 面向深度卷积神经网络的小目标检测算法综述[J]. 计算机科学, 2022, 49(12): 205-218. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA202212026.htm

    DU Z, ZHOU H, LI C, et al. Overview of small object detection algorithms for deep convolutional neural networks[J]. Computer Science, 2022, 49(12): 205-218. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA202212026.htm

    [11]

    DING R W, DAI L H, LI G P, et al. TDD-net: a tiny defect detection network for printed circuit boards[J]. CAAI Transactions on Intelligence Technology, 2019, 4(2): 110-116.

    [12] 林璐颖, 吴慧君, 杨文元. 融合双神经网络的PCB缺陷检测方法[J]. 哈尔滨商业大学学报(自然科学版), 2022, 38(2): 162-170. https://www.cnki.com.cn/Article/CJFDTOTAL-HLJS202202005.htm

    LIN L, WU H, YANG W. PCB defect detection method based on fusion of dual neural networks[J]. Journal of Harbin Commercial University (Natural Science Edition), 2022, 38(2): 162-170. https://www.cnki.com.cn/Article/CJFDTOTAL-HLJS202202005.htm

    [13]

    XIA B, CAO J, WANG C. SSIM-NET: Real-time PCB defect detection based on SSIM and MobileNet-V3[C]//2019 2nd World Conference on Mechanical Engineering and Intelligent Manufacturing (WCMEIM) of IEEE, 2019: 756-759.

    [14] 庹冰, 黄丽雯, 唐鑫, 等. 基于YOLOX-WSC的PCB缺陷检测算法研究[J]. 计算机工程与应用, 2023, 59(10): 236-243. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202310023.htm

    TUO B, HUANG L, TANG X, et al. Research on PCB defect detection algorithm based on YOLOX-WSC[J]. Computer Engineering and Applications, 2023, 59(10): 236-243. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202310023.htm

    [15] 钱万明, 朱红萍, 朱泓知, 等. 基于自适应加权特征融合的PCB裸板缺陷检测研究[J]. 电子测量与仪器学报, 2022, 36(10): 92-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202210012.htm

    QIAN W, ZHU H, ZHU H, et al. Research on PCB bare plate defect detection based on adaptive weighted feature fusion[J]. Journal of Electronic Measurement and Instrumentation, 2022, 36(10): 92-99. https://www.cnki.com.cn/Article/CJFDTOTAL-DZIY202210012.htm

    [16]

    CHEN R, ZHAN Z, HU X, et al. Printed circuit board defect detection based on the multi-attentive faster RCNN under noise interference[J]. Chin. J. Sci. Instrum, 2021, 42(12): 167-174.

    [17]

    KANG L, GE Y, HUANG H, et al. Research on PCB defect detection based on SSD[C]//4th International Conference on Civil Aviation Safety and Information Technology (ICCASIT) of IEEE, 2022: 1315-1319.

    [18]

    WANG Z, CHEN W, LI T, et al. Improved YOLOv3 detection method for PCB plug-in solder joint defects based on ordered probability density weighting and attention mechanism[J]. AI Communications, 2022, 35(3): 171-186.

    [19] 陈仁祥, 詹赞, 胡小林, 等. 基于多注意力Faster RCNN的噪声干扰下印刷电路板缺陷检测[J]. 仪器仪表学报, 2021, 42(12): 167-174. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202112019.htm

    CHEN R X, ZHAN Z, HU X L, et al. Printed circuit board defect detection under noise interference based on multi attention faster RCNN[J]. Journal of Instruments and Meters, 2021, 42(12): 167-174. https://www.cnki.com.cn/Article/CJFDTOTAL-YQXB202112019.htm

    [20] 王浩, 张晶晶, 李园园, 等. 基于3D卷积联合注意力机制的高光谱图像分类[J]. 红外技术, 2020, 42(3): 264-271. http://hwjs.nvir.cn/cn/article/id/hwjs202003009

    WANG H, ZHANG J, LI Y, et al. Hyperspectral image classification based on 3D convolutional joint attention mechanism[J]. Infrared Technology, 2020, 42(3): 264-271. http://hwjs.nvir.cn/cn/article/id/hwjs202003009

  • 期刊类型引用(1)

    1. 杨斌,李健,胡慧文,刘义英,陈文之. 基于无监督对抗模型的网络异常检测算法. 河南科学. 2025(03): 330-336 . 百度学术

    其他类型引用(0)

图(8)  /  表(3)
计量
  • 文章访问数:  123
  • HTML全文浏览量:  15
  • PDF下载量:  62
  • 被引次数: 1
出版历程
  • 收稿日期:  2023-09-12
  • 修回日期:  2023-10-29
  • 网络出版日期:  2024-06-23
  • 刊出日期:  2024-06-19

目录

/

返回文章
返回