基于灰度特征和众数原则的迭代双边中值滤波

衷文, 罗启强

衷文, 罗启强. 基于灰度特征和众数原则的迭代双边中值滤波[J]. 红外技术, 2023, 45(12): 1330-1336.
引用本文: 衷文, 罗启强. 基于灰度特征和众数原则的迭代双边中值滤波[J]. 红外技术, 2023, 45(12): 1330-1336.
ZHONG Wen, LUO Qiqiang. Iterative Bilateral Median Filter Based on Intensity Features and Mode Principle[J]. Infrared Technology , 2023, 45(12): 1330-1336.
Citation: ZHONG Wen, LUO Qiqiang. Iterative Bilateral Median Filter Based on Intensity Features and Mode Principle[J]. Infrared Technology , 2023, 45(12): 1330-1336.

基于灰度特征和众数原则的迭代双边中值滤波

基金项目: 

国家自然科学基金 61562063

江西省教育厅科学技术研究项目 GJJ212517

详细信息
    作者简介:

    衷文(1984-),男,江西万安人,硕士,副教授,研究方向为计算机图形学与智能软件,E-mail: 65141955@qq.com

    通讯作者:

    罗启强(1980-),男,江西贵溪人,硕士,副教授,研究方向为图像处理与信息系统项目

  • 中图分类号: TP391

Iterative Bilateral Median Filter Based on Intensity Features and Mode Principle

  • 摘要: 为了在去除红外图像的脉冲噪声的同时,有效保持和恢复图像的边缘细节,提出了基于灰度特征和众数原则的迭代双边中值滤波方法。此方法根据脉冲噪声的灰度特征以及众数原则,将取最小和最大值、而在邻域的灰度分布上孤立的像素识别为噪声。根据基于空间距离和灰度相似的加权系数,对邻域中的无噪像素与已经去噪恢复的像素进行频次加权,用频次加权中值作为噪声像素的估计值。其中,以迭代遍历的方式执行去噪处理,充分利用前次遍历处理的结果,以去除高密度噪声。实验数据证明,此方法去噪所得的PSNR和EPI值以及视觉效果均优于现有方法,具有更好的去噪性能。
    Abstract: In order to effectively maintain and restore the edges and details of infrared images while removing the impulse noise, an iterative bilateral median filter based on intensity features and mode principle is proposed. In this method, based on the intensity features of impulse noise and the mode principle, the pixels that take the minimum and maximum values and are isolated on the intensity distribution of the neighborhood are recognized as noisy pixels. According to the weighted coefficients with respect to the spatial distance and intensity similarity, the noiseless pixels in the neighborhood and the pixels that have been denoised and restored are weighted by the frequencies, and the frequency weighted median is used as the estimated value of noisy pixels. Furthermore, the denoising processing is performed in the way of iterative traversal processing, which makes the most of the results of the previous traversal processing to remove high density noise. The experimental data confirm that the PSNR and EPI values and the visual effects achieved by the proposed method are better than the existing methods, with better denoising performance.
  • 人体摔倒检测可以有效地检测视频中的摔倒行为,降低人在摔倒后无法及时呼救的风险[1-3]。现有的基于计算机视觉的人体摔倒检测方法大多使用可见光图像,这类方法受光照影响在昏暗环境下效果不佳。红外图像能够保护个人隐私,而且不受光照和恶劣天气的影响,适用于全天候的人体摔倒检测,本文将对红外图像摔倒检测算法进行研究。现有的人体摔倒检测方法大致可分为以下3类:1)基于Freeman链码的检测方法,文献[4]利用Freeman链码记录轮廓信息,计算实际Freeman链码与摔倒模板链码的欧式空间距离结合时间判定条件判断是否发生摔倒行为,但在大规模遮挡时容易出现误差;2)基于关键点的摔倒检测方法,文献[5]利用建立的红外图像摔倒数据集进行CenterNet网络训练,识别红外图像中的人体姿态,但没有突出摔倒动作的时序性,容易对缓慢坐地等类摔倒动作造成误检;3)基于宽高比和质心变化率的检测方法,文献[6]利用人体宽高比这一特征来判断是否有人摔倒,并使用质心变化率和有效面积比对容易造成误判的情况进行修正,从几何特征的角度判断人体是否摔倒,但对特定角度的摔倒检测效果不佳。

    针对上述算法的不足,本文在现有的摔倒检测方法的基础上提出了一种基于改进Alphapose的红外图像摔倒检测算法,该算法使用改进后的Alphapose检测红外图像中的骨架关键点和人体姿态,利用得到的人体骨架关键点信息和姿态类别进行摔倒判定,兼顾了摔倒动作的时序性和前后动作的关联性。

    人体检测的精度直接影响后续关键点检测的效果,是整个算法精度的保证。YOLO系列算法[7-9]将候选框的搜索和目标的识别定位合二为一,相对于RCNN[10-12]系列算法先搜索再识别的两阶段处理模式,YOLO算法的处理速度更快,适用于端到端的训练与预测,目前已发展至YOLO v5版本。YOLO v5的目标检测网络有4种版本,主要区别在于网络深度不同,如表 1所示。

    表  1  YOLO v5各版本参数对比
    Table  1.  Comparison of parameters between different versions of YOLO v5
    Model Size
    /pixels
    SpeedV100/ms Params(M)
    YOLO v5s 640 2.0 7.3
    YOLO v5m 640 2.7 21.4
    YOLO v5l 640 3.8 47.0
    YOLO v5x 640 6.1 87.7
    下载: 导出CSV 
    | 显示表格

    表 1可以看到,YOLO v5s的模型更小、速度更快,方便部署在嵌入式设备上,本文算法使用YOLO v5s的网络结构。

    YOLO v5s网络首先使用Focus模块对输入图像进行切片操作,如图 1所示。如果网络输入的图片大小为640×640×3,则将图像隔行隔列取值,生成320×320×12的子图,再通过32个卷积核卷积生成320×320×32的特征图。相对于普通下采样,Focus模块保留了原始图片的完整信息。

    图  1  Focus模块
    Figure  1.  Focus module

    YOLO v5s的Backbone部分使用了CSP[13]模块,将输入的特征映射划分为两部分,其中一部分经过多个残差组件和卷积,然后与另一部分拼接,在减少计算量的同时可以保证准确率。

    Neck部分采用了PANet[14]结构,主要用于生成特征金字塔。特征金字塔会增强模型对于不同缩放尺度对象的检测,从而能够识别不同大小和尺度的同一个物体。

    Alphapose[15]算法是一种人体姿态估计算法,能够检测出图像中的人体骨架,其提出一种区域多人姿态估计框架(regional multi-person pose estimation,RMPE),主要由对称空间变换网络(symmetric spatial transformer network,SSTN)、参数化姿态非极大抑制(parametric pose no-maximum-suppression,PP-NMS)、姿态引导建议发生器(pose-guided proposals generator,PGPG)和并行单人姿态估计器(parallel single person pose estimation,Parallel SPPE)组成,其中PGPG用于生成大量训练样本,Parallel SPPE则充当额外的正则项,以避免局部最小值,而SSTN又由空间变换网络(STN)、单人姿态估计器(SPPE)和空间反变换网络(spatial de-transformer network,SDTN)组成。Alphapose首先使用目标检测算法检测单张图片,得到单人人体目标框,作为RMPE的输入,进入SSTN模块。检测到的人体目标框可能目标偏离中心或者目标框中人体占比过小,影响后续姿态估计的效果,所以需要先使用STN提取出高质量的单人区域,然后输入SPPE得到估计的姿态,再由SDTN将估计的姿态反变换到原始人体区域框中。冗余的人体区域框输入姿态估计网络,可能会检测到冗余的姿态。Alphapose提出PP-NMS用来消除多余的姿态。其定义了一种姿态距离来度量姿态间的相似度,并在此基础上建立了冗余姿态的消除标准。PP-NMS首先选取最大置信度的姿态作为参考,并且根据消除标准将靠近该参考的区域框进行消除,多次重复这个过程直到消除所有的冗余识别框。

    原Alphapose算法主要使用的人体检测器是YOLO v3,与之相比,YOLO v5s的模型更小,速度更快。本文算法使用YOLO v5s作为Alphapose的人体检测器,改进后的Alphapose算法结构如图 2所示。

    图  2  改进的Alphapose算法结构
    Figure  2.  Improved Alphapose algorithm structure

    改进后的算法使用YOLO v5s网络完成对人体姿态的直接分类,同时从输入的红外图像中提取人体区域框,输入人体姿态估计网络检测人体骨架关键点,将关键点信息与预测的姿态类别一并输出。

    本文提出基于改进Alphapose的红外图像摔倒检测算法。该算法首先使用YOLO v5s网络对图像中的人体姿态进行分类,再提取人体目标框检测出单人的骨架关键点,最后利用关键点和姿态类别信息,通过关键点分析和摔倒判定,判断是否出现摔倒。

    Alphapose算法检测出的人体骨架关键点如图 3所示。

    图  3  Alphapose关键点检测结果
    Figure  3.  Alphapose key point detection results

    图 3(a)是站立时的人体骨架,图 3(b)是摔倒后的人体骨架。图中编号为0~17的点代表检测得到的18个人体骨架关键点,其中点11和点12所在位置代表髋关节。

    通过实验发现,站立或行走的人体目标在发生摔倒时,最直观的表现是髋关节位置在垂直方向上的迅速下跌,所以通过监测髋关节在序列帧中的移动速度可以及时发现产生的摔倒动作。但随着运动中的人体目标与摄像头的距离越来越远,其髋关节在图像上的位移速度也越来越小,容易造成漏检。针对该问题,本文提出以前一帧中人体目标框的高度作为参考对象,计算髋关节关键点的相对移动速度。

    在对红外视频的检测中,设第i帧与第i-1帧均为单人红外图像,2≤iNN表示红外视频的总帧数,且都是非遮挡状态,其髋关节关键点均被检出。设图像左上角为原点,水平向右为X轴正方向,垂直向下为Y轴正方向,建立直角坐标系。记第i帧人体骨架中编号为n的关键点的纵坐标为yin,取点11和点12的中心点M代表髋关节,则点M在第i帧中的纵坐标yiM如式(1)所示。

    $$ y_i^M = (y_i^{11} + y_i^{12})/2 $$ (1)

    在摔倒过程中,当前一帧人体目标框的高度明显小于其宽度时,即使下降速度不变,也会因为前一帧目标框高度减小,导致计算得到的速度偏大,所以本算法引入前一帧人体目标框的宽高比作为限制条件,防止前一帧目标框宽高比过大导致点M的微小起伏被误识别为摔倒。记第i帧中人体目标框的高度为Hi,宽度为Wi,则第i帧中的人体宽高比Pi如公式(2)所示:

    $$ {P_i} = {{{W_i}} \mathord{\left/ {\vphantom {{{W_i}} {{H_i}}}} \right. } {{H_i}}} $$ (2)

    记第i帧中点M在垂直方向上的相对移动速度为vi,如公式(3)所示:

    $$ {v_i} = \frac{{y_i^M - y_{i - 1}^M}}{{{H_{i - 1}}}},\quad 2 \leqslant i \leqslant N $$ (3)

    设置大于0的阈值Th,检测可能出现的摔倒行为,如公式(4)所示。

    $$ {F_i} = \left\{ {\begin{array}{*{20}{l}} {1,\;\;{v_i} > \text {Th and }{P_{i - 1}} < 1.0,\quad 2 \leqslant i \leqslant N} \\ {0,\;\;else} \end{array}} \right.\; $$ (4)

    Fi等于1时,判断可能发生了摔倒。

    仅仅分析关键点的下落速度有可能将快速下蹲、俯身拾取等类摔倒动作误识别为摔倒,为了减少误判,需要结合关键点分析结果和姿态分类做进一步判定。

    经实验发现,摔倒后人体姿态会在短时间内稳定,直观表现是坐在地上、躺下或手部撑地,所以本文算法在经过关键点分析判断有可能发生摔倒后,继续检测后续多帧内的人体姿态。

    在统计后续的人体姿态中,若第i帧图像中人体姿态类别为li,则对应的人体图像得分为si,两者关系可用公式(5)表示:

    $$s_i=\left\{\begin{array}{l} 1, l_i \in[\text { "sit_flat","lie","push_up"] } \\ 0, \text { else } \end{array}\right.$$ (5)

    式(5)中:当图像中的人体姿态类别li为“sit_flat”(坐地)、“lie”(躺下)、“push_up”(撑地)这3种姿态中的任意一种时,该人体图像的得分记为1,否则得分记为0。

    Fi=1,即第i帧检测到可能发生摔倒时,继续检测后续20帧图像的人体姿态,若累计图像得分大于10,最终判定为摔倒,记为FFi=1,如公式(6)所示:

    $$ F{F_i} = \left\{ {\begin{array}{*{20}{l}} {1,\quad {F_i} = 1\;\;\text{and}\;\;\sum\limits_{k = 1}^{20} {{s_{i + k}} > 10} } \\ {0,\quad \text{else}} \end{array}} \right. $$ (6)

    在实时检测过程中,以实时视频流作为输入,检测每一帧当前画面中的人体姿态和骨架关键点。从第二帧开始,如果前一帧与当前帧均检测出同一人的髋关节位置,即“无遮挡”状态,则进行关键点分析,计算髋关节关键点在这相邻两帧间的相对移动速率和方向。当满足可能摔倒的条件后,进行摔倒判定,开始统计后续20帧图像中的姿态类别,如果满足最终摔倒条件,则判断为一次摔倒。实时检测的情况下一次完整的摔倒检测流程图如图 4所示。

    图  4  总体算法流程
    Figure  4.  Overall algorithm flowchart

    本文使用的数据集分为3部分。第一部分是自建的室内红外数据集,摄像头采用艾睿光电红外热成像模组Xmodule T3,分辨率384×288,样本共6787张,场景包括走廊、办公室、大厅等室内场景;第二部分是运动物体热红外成像数据集(moving object thermal infrared imagery dataset,MOTIID),样本取自其中三段室外行人行走的视频,获取样本571张,均为室外场景;第三部分使用的是开放的免费FLIR热数据集FLIR_ADAS,获取样本926张。

    本文对红外图像下的人体姿态定义了8种类别,分别是“直坐”、“躺下”、“下蹲”、“站立”、“弯腰”、“撑地”、“坐地”和“遮挡”,如图 5所示。

    图  5  姿态分类:(a) 直坐;(b) 躺下;(c) 下蹲;(d) 站立;(e) 弯腰;(f) 撑地;(g) 坐地;(h) 遮挡
    Figure  5.  Posture classification: (a) Sit straight; (b) Lie; (c) Squat;(d) Stand; (e) Bend; (f) Push up; (g) Sit flat; (h) Cover

    本文采用了Mosaic数据增强的方式对训练数据进行预处理,如图 6所示,Mosaic数据增强通过每次随机抽取数据集中的4张图片,采用随机裁剪、随机缩放、随机组合的方式生成一张新的训练图片。通过Mosaic数据增强,能够丰富场景内容,增强样本多样性,提高目标检测算法的抗干扰性。

    图  6  Mosaic数据增强
    Figure  6.  Mosaic data augmentation

    本实验的实验环境为Win10_x64平台,CPU为Intel Core i7-9750H,内存16 G,GPU为NVIDIA GeForce RTX 2060,使用框架为torch1.6.0+opencv-python4.4.0,输入图片尺寸384×288,学习率为0.01,epochs为100。实验分为两部分:进行红外人体骨架检测实验,以测试本文算法定位精度和实时性;进行红外视频摔倒判定实验,以验证本文策略的可行性。

    为了排除遮挡状态对关键点检测的干扰,需准确识别遮挡与非遮挡状态,如图 7所示。

    图 7(a)图 7(d)分别是遮挡状态的两种标注方式示意图,图 7(a)将未被遮挡的人体部分标注为遮挡,其预测结果如图 7(b)图 7(c)所示,图 7(d)在标注遮挡类别的目标框时加入部分遮挡物,其预测结果如图 7(e)图 7(f)所示。从图 7(b)中可以看到,全身被识别为站立姿态的同时,上身也被识别为遮挡,即出现了冗余检测,而如图 7(e)图 7(f)所示,在遮挡状态标记框中加入部分遮挡物后,站立和遮挡得到了明显的区分。经实验,在标记遮挡状态时,当选取的遮挡物在标记框纵向占比为0.2或横向占比为0.3时,对遮挡和非遮挡状态的区分效果较好。

    图  7  遮挡状态标注与预测图:(a) 标注时不含遮挡物;(b) 无遮挡物标注方式检测无遮挡状态;(c) 无遮挡物标注方式检测遮挡状态;(d) 标注时含部分遮挡物;(e) 含遮挡物标注方式检测无遮挡状态;(f) 含遮挡物标注方式检测遮挡状态
    Figure  7.  Annotated and predicted images under occlusion: (a) No obstructions included when labeling; (b) Detection of unobstructed state using unobstructed object annotation method; (c) Detection of occlusion status using unobstructed object annotation method; (d) Include partial obstructions when labeling; (e) Detection of unobstructed state using labeling method with occluded objects; (f) Detection of occlusion status using labeling method with occluded objects

    本实验将本文算法与原Alphapose算法进行对比,取500张图片作为测试集,部分检测结果如图 8所示。

    图  8  实验结果:(a) Alphapose检测自建红外数据集;(b) Ours检测自建红外数据集;(c) Ours检测MOTIID红外测试集;(d) Ours检测FLIR_ADAS数据集
    Figure  8.  Experimental results: (a) Alphapose for detecting self built infrared datasets; (b) Ours for detecting self built infrared datasets; (c) Ours for detecting MOTIID dataset; (d) Ours for detecting FLIR_ADAS datasets

    本实验采用DIoU(Distance-IoU)衡量算法的定位精度,DIoU反映了真实与预测之间的相关度,计算方法如公式(7)所示:

    $$ \text{DIoU} = \text{IoU} - \frac{{{\rho ^2}(b,{b^{\text{gt}}})}}{{{c^2}}} $$ (7)

    式(7)中:bbgt分别表示预测框和真实框的中心点位置坐标;ρ(b, bgt)是两个中心点之间的欧氏距离;c表示真实框和预测框的最小外接矩形的对角线距离;IoU表示真实框与预测框之间的交并比。DIoU值越接近于1,则预测位置越接近真实位置。

    分别使用原Alphapose算法和本文算法计算DIoU值,其平均值DIoU_Average和平均处理时间如表 2所示。

    表  2  实验结果
    Table  2.  Experimental results
    Method DIoU_average Time_average/s
    Alphapose 0.910 0.085
    Ours 0.926 0.068
    下载: 导出CSV 
    | 显示表格

    图 8(a)图 8(b)可以看到,因为在标记遮挡姿态时加入了部分遮挡物,所以识别出的遮挡姿态目标框也向被遮挡方向进行了部分延伸,符合遮挡的特征,这也验证了本文针对遮挡姿态修改标记方法的有效性。如图 8(a)~图 8(b)所示,原Alphapose算法与本文算法的检测结果基本相近,但也出现少数偏差。原Alphapose算法对“躺下”姿态的定位不够准确,导致后续的骨架检测出现误差,而本文算法得到的预测框更加逼近其真实目标框,得到的人体区域更加紧凑,检出的人体骨架也较准确。结合表 2中的计算结果可知,本文算法对人体区域的定位较准,速度更快。如图 8(c)~图 8(d)所示,本文算法也可检测室外人体目标,但对于远距离的人体可能产生漏检,如图 8(d)所示,远处路灯下的人体没有被检出。同时,在人群聚集和多人重叠场景下,容易发生漏检现象。

    本实验使用本文算法检测实时红外视频流,从中截取12段热红外视频,共计36个摔倒动作和51个类摔倒动作,其中类摔倒动作包括快速下蹲、俯身拾取和缓慢坐地。记摔倒动作被识别为摔倒的个数为TP,摔倒动作被识别为非摔倒的个数为FN,类摔倒动作被识别非摔倒的个数为TN,类摔倒动作被识别为摔倒的个数为FP。改变阈值Th,计算不同阈值下的准确率,计算方法如公式(8)所示:

    $$ \text{Accuracy} = \frac{{\text{TP} + \text{TN}}}{{\text{TP} + \text{TN} + \text{FP} + \text{FN}}} $$ (8)

    表 3可以看出,当Th大于或等于0.04时,漏检的摔倒个数逐渐增多,因为设定的阈值大于部分真实摔倒动作的相对位移速度,容易将真实的摔倒动作漏检。而当Th小于或等于0.03时,真实的摔倒动作已全部被正确检出,但也出现误识别的情况,如将俯身拾取动作误识别为摔倒,如图 9所示。

    表  3  不同Th下检测结果
    Table  3.  Experimental results under different Th values
    Th TP FN TN FP Accuracy
    0.01 36 0 41 10 88.5%
    0.02 36 0 47 4 95.4%
    0.03 36 0 50 1 98.9%
    0.04 34 2 51 0 97.7%
    0.05 32 4 51 0 95.4%
    0.06 29 7 51 0 92.0%
    0.07 25 11 51 0 87.4%
    下载: 导出CSV 
    | 显示表格
    图  9  摔倒检测结果:(a) Th=0.03时,真实摔倒动作检测结果;(b) Th=0.03时,伪摔倒动作检测结果;(c)Th=0.01时,伪摔倒动作检测结果
    Figure  9.  Fall detection results: (a) Detection result of real fall movements when Th=0.03; (b) Detection result of false fall action when Th=0.03; (c) Detection result of false fall action when Th=0.01

    图 9(a)图 9(b)分别是Th取0.03时,本算法对真实摔倒动作和俯身拾取动作的检测结果,图 9(c)是Th取0.01时,本算法对俯身拾取动作的检测结果。从图 9(c)可以看出,当Th取值偏小时,因为俯身拾取动作在下蹲过程中可能其速度大于设定的阈值,所以有可能将俯身拾取识别为摔倒。而当Th取0.03时,可有效过滤此类动作,并且能够检测出真实的摔倒动作。因为在本实验环境下,阈值Th为0.03时,准确率最高,所以取0.03作为本实验环境下Th的最佳值。因为本文策略以关键点瞬时位移速度大于阈值为前提,辅以后续姿态加以判定,而快速下蹲动作不满足其后续姿态判定中对撑地、坐地或躺下的要求,所以实验中没有出现快速下蹲被误识别为摔倒的情况。从实验结果来看,本算法对快速下蹲、缓慢坐地、俯身拾取这样的类摔倒动作具有一定的抗干扰性。

    本实验的目的是对真实摔倒动作与类摔倒动作进行区分,可以根据当前Th得到的准确率变化情况更新Th值。如果本轮Th得到的准确率高于上一轮的准确率,则表明Th的变化方向是有效的,反之则表明上一轮Th值更接近最优值,转而反方向寻值。在迭代过程中,当准确率变化趋势发生改变时,通过改变步长逼近最佳阈值。阈值Th的更新计算公式如式(9)所示:

    $$ \text{T}{\text{h}}_{j+1}=\text{T}{\text{h}}_{j}+a\ast (-2){}^{-m}\text{,}j\ge 0 $$ (9)

    式中:Thj表示第j轮迭代中的阈值;a*(-2)m表示阈值的变化步长。本实验中a取值0.04,m的初始值设为1,记阈值为Thj时的检测准确率为Accj

    更新过程步骤如下:

    1)设置初始阈值Th0=0.05,此时j=0,按式(8)计算对应的检测准确率Acc0

    2)设m=1,a=0.04,按公式(9)计算Thj+1,并计算对应的Accj+1

    3)若Accj+1>Accj,则jj+1,再按公式(9)计算下一代阈值Thj+1,并计算Accj+1;否则,mm+1,jj+1,再按公式(9)计算Accj+1

    4)重复执行步骤3)。

    针对现有人体摔倒检测方法对类摔倒动作容易误检的问题,本文提出基于改进Alphapose的红外图像摔倒检测算法,使用改进的Alphapose算法检测红外图像中的人体关键点和姿态类别,结合人体关键点信息和姿态类别进行摔倒判定。本文在原算法的基础上,使用YOLO v5s作为Alphapose的人体检测器和姿态分类器,在提取人体目标框的同时直接完成对人体姿态的分类,在摔倒与类摔倒场景中,对人体摔倒检测的准确率达到98%。本算法也存在着不足,如本算法利用人体关键点的位置信息做关键点分析,适用于无遮挡状态下的人体摔倒检测。阈值的选取与算法在不同设备上的运行速度有关,对阈值的自适应取值是后续研究的重点。

  • 图  1   实验图像

    Figure  1.   Experimental images

    图  2   各算法对含各种密度噪声的场景一的量化指标值

    Figure  2.   Quantitative index values of each algorithm for scene one with various density noises

    图  3   各算法对含各种密度噪声的场景二的量化指标值

    Figure  3.   Quantitative index values of each algorithm for scene two with various density noises

    图  4   各算法对含各种密度噪声的场景三的量化指标值

    Figure  4.   Quantitative index values of each algorithm for scene three with various density noises

    图  5   各方法对噪声密度0.8的场景一的去噪图像

    Figure  5.   Denoised image of each method for scene one with noise density of 0.8

    图  6   各方法对噪声密度0.8的场景二的去噪图像

    Figure  6.   Denoised image of each method for scene two with noise density of 0.8

    图  7   各方法对噪声密度0.8的场景三的去噪图像

    Figure  7.   Denoised image of each method for scene three with noise density of 0.8

    表  1   各方法对数据集单张图像的平均计算时间

    Table  1   Average computational time of each method for a single image of the dataset

    Density AFMF DAMF DTGM MDIF BMF
    0.1 5.33 3.21 1.67 2.57 1.35
    0.2 5.36 3.54 1.86 2.95 1.74
    0.3 5.42 3.92 2.15 3.59 2.09
    0.4 5.67 4.51 2.87 4.12 3.48
    0.5 5.62 4.87 3.41 4.69 4.45
    0.6 5.84 5.12 3.95 5.68 6.12
    0.7 5.97 5.43 4.58 6.99 7.29
    0.8 6.11 5.75 5.47 9.02 8.87
    0.9 6.18 5.90 6.87 10.9 10.2
    下载: 导出CSV
  • [1]

    Khan S, Lee D. An adaptive dynamically weighted median filter for impulse noise removal[J]. EURASIP Journal on Advances In Signal Processing, 2017, 2017(1): 1-14. DOI: 10.1186/s13634-016-0440-1

    [2]

    Erkan U, Gökrem L. A new method based on pixel density in salt and pepper noise removal[J]. Turkish Journal of Electrical Engineering & Computer Sciences, 2018, 26(1): 162-171.

    [3]

    Balasubramanian G, Chilambuchelvan A, Vijayan S, et al. An extremely fast adaptive high performance filter to remove salt and pepper noise using overlapping medians in images[J]. Imaging Science Journal, 2016, 64(5): 241-252. DOI: 10.1080/13682199.2016.1168144

    [4]

    ZHANG Z, HAN D, Dezert J, et al. A new adaptive switching median filter for impulse noise reduction with pre-detection based on evidential reasoning[J]. Signal Processing, 2018, 147(2018): 173-189.

    [5]

    Erkan U, Serdar E, Thanh D, et al. Adaptive frequency median filter for the salt and pepper denoising problem[J]. IET Image Processing, 2020, 14(7): 1291-1302. DOI: 10.1049/iet-ipr.2019.0398

    [6]

    SHAO C, Kaur P, Kumar R. An improved adaptive weighted mean filtering approach for metallographic image processing[J]. Journal of Intelligent Systems, 2021, 30(1): 470-478. DOI: 10.1515/jisys-2020-0080

    [7] 徐超, 冯辅周, 闵庆旭, 等. 基于形态学和OTSU算法的红外图像降噪及分割[J]. 红外技术, 2017, 39(6): 512-516. http://hwjs.nvir.cn/article/id/hwjs201706006

    XU C, FENG F, MIN Q, et al. Infrared image denoising and segmentation based on morphology and Otsu method[J]. Infrared Technology, 2017, 39(6): 512-516. http://hwjs.nvir.cn/article/id/hwjs201706006

    [8]

    LIU N, YANG C, CAO H. Noise suppression of the reconstruction of infrared digital holography based on pyramid-based bilateral filter[J]. Infrared Physics & Technology, 2017, 85: 352-358.

    [9]

    Goel N, Kaur H, Saxena. Modified decision based unsymmetric adaptive neighborhood trimmed mean filter for removal of very high density salt and pepper noise[J]. Multimedia Tools and Applications, 2020, 79: 19739-19768. DOI: 10.1007/s11042-020-08687-y

    [10] 顾雅青, 葛宾, 高晨. 基于模糊滤波器的钢水红外图像混合噪声处理[J]. 红外技术, 2019, 41(7): 623-627. http://hwjs.nvir.cn/article/id/hwjs201907005

    GU Y, GE B, GAO C. Fuzzy filter-based mixed noise processing for molten steel infrared image[J]. Infrared Technology, 2019, 41(7): 623-627. http://hwjs.nvir.cn/article/id/hwjs201907005

    [11]

    Vasanth K, Ravi C, Nagaraj S, et al. A decision based asymmetrically trimmed modified geometric mean algorithm for the removal of high density salt and pepper noise in images and videos[J]. Smart Computing Techniques and Applications, 2021, 225(2021): 147-154.

    [12]

    Sharma N, Sohi P, Garg B, et al. A novel multilayer decision based iterative filter for removal of salt and pepper noise[J]. Multimedia Tools and Applications, 2021, 80(17): 26531-26545. DOI: 10.1007/s11042-021-10958-1

    [13] 王加, 周永康, 李泽民, 等. 非制冷红外图像降噪算法综述[J]. 红外技术, 2021, 43(6): 557-565. http://hwjs.nvir.cn/article/id/380dcf6e-de3d-4411-ab70-e246d5c8ea27

    WANG J, ZHOU Y, LI Z, et al. A survey of uncooled infrared image denoising algorithms[J]. Infrared Technology, 2021, 43(6): 557-565. http://hwjs.nvir.cn/article/id/380dcf6e-de3d-4411-ab70-e246d5c8ea27

    [14]

    Enginoğlu S, Erkan U, Memiş S. Adaptive cesáro mean filter for salt-and-pepper noise removal[J]. El-Cezeri Journal of Science and Engineering, 2020, 7(1): 304-314.

    [15]

    CHEN J, ZHAN Y, CAO H. Adaptive sequentially weighted median filter for image highly corrupted by impulse noise [J]. IEEE Access, 2019, 7(2019): 158545-158556.

  • 期刊类型引用(3)

    1. 邬苏秦,王府圣,周川鸿,朱卫纲,曲卫. 基于深度学习的毫米波雷达人体摔倒检测系统研究. 电子设计工程. 2024(02): 181-186 . 百度学术
    2. 丁玲,赵昆. 基于人体关键点识别的机器人舞姿模仿系统研究. 自动化与仪器仪表. 2024(06): 169-173 . 百度学术
    3. 王梦溪,李峻. 老年人跌倒检测技术研究综述. 计算机与现代化. 2024(08): 30-36 . 百度学术

    其他类型引用(1)

图(7)  /  表(1)
计量
  • 文章访问数:  95
  • HTML全文浏览量:  26
  • PDF下载量:  30
  • 被引次数: 4
出版历程
  • 收稿日期:  2022-09-13
  • 修回日期:  2023-02-27
  • 刊出日期:  2023-12-19

目录

/

返回文章
返回