基于红外图像和逆向投影算法的室内人体跌倒检测方法

陈涵, 余磊, 彭泗田, 聂宏, 欧巧凤, 熊邦书

陈涵, 余磊, 彭泗田, 聂宏, 欧巧凤, 熊邦书. 基于红外图像和逆向投影算法的室内人体跌倒检测方法[J]. 红外技术, 2021, 43(10): 968-978.
引用本文: 陈涵, 余磊, 彭泗田, 聂宏, 欧巧凤, 熊邦书. 基于红外图像和逆向投影算法的室内人体跌倒检测方法[J]. 红外技术, 2021, 43(10): 968-978.
CHEN Han, YU Lei, PENG Sitian, NIE Hong, OU Qiaofeng, XIONG Bangshu. Indoor Human Fall Detection Method Based on Infrared Images and Back-Projection Algorithm[J]. Infrared Technology , 2021, 43(10): 968-978.
Citation: CHEN Han, YU Lei, PENG Sitian, NIE Hong, OU Qiaofeng, XIONG Bangshu. Indoor Human Fall Detection Method Based on Infrared Images and Back-Projection Algorithm[J]. Infrared Technology , 2021, 43(10): 968-978.

基于红外图像和逆向投影算法的室内人体跌倒检测方法

基金项目: 

国家自然科学基金 62162044

江西省自然科学基金 20202BAB202016

南昌航空大学研究生创新专项基金 YC2019030

详细信息
    作者简介:

    陈涵(1996-),男,硕士研究生,研究方向:基于红外图像的人体姿态识别。E-mail:chenhan_1996@163.com

    通讯作者:

    余磊(1984-),男,副教授,主要从事图像处理及应用。E-mail:yulei@nchu.edu.cn

  • 中图分类号: TP391.4

Indoor Human Fall Detection Method Based on Infrared Images and Back-Projection Algorithm

  • 摘要: 研究表明跌倒是我国老年人伤害的主要原因,缩短跌倒到救治的时间能降低跌倒造成的伤害。为此,室内老年人跌倒检测需求逐年增加。红外传感器具有受光照影响小,保护隐私等优点,越来越广泛地应用于室内人体跌倒检测中。然而,由于红外图像存在分辨率低、信噪比差等缺陷,导致传统方法的检测精度较低。针对这个问题,本文提出一种基于逆向投影算法的室内人体跌倒检测方法。首先,通过人体温度计算出人体与传感器之间的距离;其次,结合图像信息,逆推出人体在真实世界的高度;最后,对获取的人体真实高度数据进行平滑处理,并根据其变化情况进行跌倒检测。实验结果表明,本文所提方法的检测准确率达到98.57%,优于传统非逆向投影方法,其性能完全可以应用于实际检测中。
    Abstract: Falls are reported to be a major cause of injury in China's elderly population. Shortening the time between the fall and subsequent treatment can reduce injuries caused by falls; therefore, the demand for indoor fall detection is increasing annually. Infrared image-based human fall detection methods are becoming increasingly popular owing to advantages such as being unaffected by light and non-intrusive. However, the traditional methods perform low accuracy because it is difficult to extract the features from the infrared videos at low resolution and high noise. Hence, this paper proposes an indoor human fall detection method based on a back-projection algorithm. First, the distance between the human body and the sensor is calculated using the human body temperature. Second, the height of the human body in the real world is reversely deduced using image information. Finally, the human body height data are smoothed and used for fall detection based on the height variation. The experimental results show that the detection accuracy of the proposed method is 98.57%, which is better than that of traditional projection methods. Therefore, it can be used for detection in real-life situations.
  • 随着医疗保障的提高,人口老龄化已是当今社会的一个问题。根据相关调查表明,老年人受到意外伤害的主要原因之一就是摔倒。因此,防止老年人摔倒也变得越来越重要。世界卫生组织报告说,每年因跌倒造成的严重伤害超过3730万人次,死亡64.6万人[1]。摔倒是一个重要的公共健康问题,其伤害很大程度上取决于救助响应时间的长短。智能的摔倒检测系统可以全天候工作,及时做出反应,实时保护人们的安全。

    现在主流的人体摔倒检测方法根据检测传感器的不同大致分为基于穿戴式的摔倒检测、基于环境式的摔倒检测以及基于计算机视觉的摔倒检测3类。基于穿戴式检测法通常将加速度计以及陀螺仪等传感器佩戴在身体上,收集运动数据[2-4],使用采集得到的传感器数据训练MLP[5](multilayer perceptron)、SVM[6](support vector machines)等机器学习算法进行人体摔倒检测。基于外部传感器的摔倒检测方法需要随身穿戴传感器,存在用户穿戴起来不方便和不自在,容易脱落等问题。基于环境式的摔倒检测是提前在指定的区域布置好诸如压力传感器、声音传感器等,通过传感器采集到的数据进行检测,这种方法存在容易被环境噪声影响[7],成本高等问题。另外,基于计算机视觉的摔倒检测法通常对摄像头拍摄到的图像进行目标的提取,获取其特征,再通过对特征的分析从而得到摔倒检测结果。文献[8]将行人用矩形框表示,通过矩形框的长宽比例来说明行人的姿态,从而进行摔倒检测;文献[9]将目标的轮廓拟合成椭圆,提取其几何与运动两种特征,组成一个新的特征,使用SVM进行摔倒判断;文献[10]使用高斯混合模型得到人体目标,提取多帧特征并融合得到基于时间序列的运动特征,使用一个简单的卷积神经网络判断摔倒。文献[11]中提出一种基于人体骨骼关键点和神经网络的人体摔倒检测方法,通过Alphapose检测人体骨骼关键点,并用来训练LSTM(long short term memory)神经网络,实现人体摔倒的检测。

    上述人体摔倒检测研究中使用的视频与图像均是可见光图像,然而在生活中应用人体摔倒检测的往往是老人和容易出现情况的病人,这些地方一般都是需要24h监控。可见光图像在夜晚和光照条件不好的场景中不能很好地呈现出图像,在这些情况下不能做到准确地检测摔倒情况。红外图像目标识别技术是指通过对红外图像进行预处理,然后提取目标特征,最后实现目标的定位与识别[12]。与可见光图像相比,红外图像直观反映的是物体的温度,一般而言红外图像中行人的亮度比背景亮度要高,且纹理、颜色和光照对红外图像几乎没什么影响,这使得红外图像在进行人体检测方面具有很大的优势和潜力。

    针对上述问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。该方法采用红外相机采集图像,图像经过全卷积网络得到人体目标中心点,并在中心点位置回归出目标位置以及状态属性等,从而实现人体摔倒检测。

    目标检测识别往往在图像上将目标以轴对称的框形式框出,大多数成功的目标检测器都是罗列出大量的候选框并对其分类。这样做法浪费时间,并且低效,还需要额外的后处理。本文中提出采用一种不同的方法,构建模型是将目标作为一个点,即目标的中心点。检测器通过热力图寻找中心点然后回归目标的其他属性,比如大小,3D位置坐标,方向甚至姿态。相比较于基于目标框的检测器,基于中心点的检测网络centernet[13]是一个端到端的、独特的、简单而快速的目标检测器。

    在网络中,仅仅将图像传入全卷积网络,得到高维特征图,然后在特征图上进行卷积操作得到热力图,确定目标中心点、中心点偏移值以及目标尺寸大小。网络整体架构如图 1所示。

    图  1  Centernet网络整体架构
    Figure  1.  Overall network architecture of Centernet

    令$I \in {R^{W \times H \times 3}}$为输入图像,其宽为W,高为H。目标是生成关键点热力图${Y^ \wedge } \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$,其中R是输出步长(即尺寸缩放比例),C是关键点类型数(即输出特征通道数),在本文中由于目标类别有3种,因此C=3。使用Y^x, y, c=1表示检测到的关键点,Y^x, y, c=0表示前景。其中使用深层聚合网络DLA[14](deep layer aggregation)预测得到每张图像I的关键点热力图Y^,DLA是带多级跳跃连接的图像分类网络。

    在训练关键点预测网络中,对于Ground Truth(即GT)的关键点c,其位置定义为pR2,计算得到低分辨率上的对应关键点为$\tilde p \in [\frac{p}{R}]$。然后通过使用高斯核${Y_{xyc}} = \exp ( - \frac{{{{(x - {{\tilde p}_x})}^2} + {{(y - {{\tilde p}_y})}^2}}}{{2\sigma _p^2}})$将每一个GT关键点映射到热力图$Y \in {[0, 1]^{\frac{W}{R} \times \frac{H}{R} \times C}}$上,其中${\sigma _p}$是目标尺度-自适应的标准方差[15]。如果对于同个类c(同个关键点或是目标类别)有两个高斯函数发生重叠,选择元素级最大的。训练目标函数是一个像素级逻辑回归的焦点损失函数,其公式如下[16]

    $${L_k} = \frac{{ - 1}}{N}\sum\limits_{xyc} {\left\{ {\begin{array}{*{20}{l}} {{{(1 - {Y^ \wedge }_{xyc})}^\alpha }\ln ({Y^ \wedge }_{xyc})}&{{\rm{if}}\;{Y_{xyc}}{\rm{ = }}1}\\ {{{(1 - {Y^ \wedge }_{xyc})}^\beta }\ln {{({Y^ \wedge }_{xyc})}^\alpha }}&{{\rm{otherwise}}}\\ {\ln (1 - {Y^ \wedge }_{xyc})}&{{\rm{otherwise}}} \end{array}} \right.} $$ (1)

    式中:αβ是损失函数的超参数;N是图像I中的关键点个数,式中除以N是为了将所有焦点损失归一化。在实验中,一般选取α=2,β=3。

    由于在图像下采样时,GT的关键点会因数据是离散的而产生偏差,因此对每个中心点附加预测了一个局部偏移${O^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$,所有类别c共享同个偏移预测,这个偏移使用L1 loss来训练,公式如下:

    $${L_{{\rm{off}}}} = \frac{1}{N}\sum\limits_p {\left| {{O^ \wedge }_{\tilde p} - (\frac{p}{R} - \tilde p)} \right|} $$ (2)

    将目标作为点来进行目标检测是本文算法的核心思想,具体做法如下。假设在图像中目标k的边界框ck为$(x_1^{(k)}, y_1^{(k)}, x_2^{(k)}, y_2^{(k)})$,那么其中心位置为${p_k} = (\frac{{x_1^{(k)} + x_2^{(k)}}}{2}, \frac{{y_1^{(k)} + y_2^{(k)}}}{2})$。通过使用上文中提到的关键点估计器Y^来预测图像中所有目标的中心点。此外,为每个目标回归出目标的尺寸,其公式为${s_k} = (x_2^{(k)} - x_1^{(k)}, y_2^{(k)} - y_1^{(k)})$。为了减少计算负担,对所有对象种类使用单一的尺寸预测,表达式为:${s^ \wedge } \in {R^{\frac{W}{R} \times \frac{H}{R} \times 2}}$。另外在每个中心点位置添加一个L1 loss,目标尺寸的损失函数如式(3)所示:

    $${L_{{\rm{size}}}} = \frac{1}{N}\sum\limits_{k = 1}^N {\left| {s_{{p_k}}^ \wedge - {s_k}} \right|} $$ (3)

    在此方法中,不用归一化目标尺寸而是直接使用原始像素坐标。为了调节总的loss的影响,分别对损失函数中的偏移损失和尺寸损失乘以一个影响系数,整个训练的目标损失函数如式(4)所示:

    $${L_{{\rm{det}}}} = {L_k} + {l_{{\rm{size}}}}{L_{{\rm{size}}}} + {l_{{\rm{off}}}}{L_{{\rm{off}}}} $$ (4)

    实验中,根据经验影响系数分别设置为λsize=0.1,λoff=1。在整个过程中,通过使用单个网络来预测出关键点${Y^ \wedge }$,中心点偏移量${O^ \wedge }$以及目标尺寸${S^ \wedge }$。整个网络预测结果会在每个位置输出(C+4)个值,即关键点类别c,关键点偏移量xy以及尺寸WH,所有的输出共享同一个全卷积网络骨干。对于每一个通道,其主干的特征都要通过一个单独的3×3卷积,ReLU和一个1×1卷积。

    在前面提到所提的检测方法是通过检测每个目标的中心点,也就是在热点图中提取每个类别的峰值点。得到峰值点的方法是:将热力图上的所有的响应点与其相邻的8个点进行比较,如果该点响应值大于或者等于其他8个临近点则保留,否则丢弃。最后保留所有满足之前要求的前100个峰值点。令$p_c^ \wedge $是检测到的c类别的n个中心点的集合,${p^ \wedge } = \left\{ {(x_i^ \wedge , y_i^ \wedge )} \right\}_{i = 1}^n$表示类别c的所有中心点的集合,每个关键点都以整型坐标(xi, yi)的形式给出。通过使用一个关键点值${Y^ \wedge }_{{x_i}, {y_i}, c}$作为其检测置信度的度量,并且在关键点位置处生成一个边界框,其表达式如下式所示:

    $$\begin{gathered} (x_i^ \wedge + \delta x_i^ \wedge - w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge - h_i^ \wedge /2 \\ x_i^ \wedge + \delta x_i^ \wedge + w_i^ \wedge /2, y_i^ \wedge + \delta y_i^ \wedge + h_i^ \wedge /2) \\ \end{gathered} $$

    式中:$(\delta x_i^ \wedge , \delta y_i^ \wedge ) = O_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是关键点偏移预测结果,$(w_i^ \wedge , h_i^ \wedge ) = S_{x_i^ \wedge , y_i^ \wedge }^ \wedge $是目标边界框的尺度预测结果。

    目前基本上所有的基于视觉的摔倒检测研究都是在可见光图像上基础上进行的,为了避免复杂光照条件影响以及能在夜晚和白天24h工作,本文研究了基于红外图像下的人体摔倒检测。因为没有公开的红外图像人体摔倒数据集,为此在这对公开的人体摔倒数据集进行分析,了解其数据集中的人体行为,摔倒场景,图像分辨率等内容。在此基础上,搭建人体摔倒场景,设定行为内容,然后使用红外成像设备获取红外数据,制作红外图像人体摔倒数据集。

    本文主要研究了MuHAVi-MAS17和Le2i两个公开数据集,这两个摔倒数据集在摔倒检测中使用最多,其数据量大,内容丰富,是目前主流的人体摔倒检测数据库。

    MuHAVi-MAS17是一个行为识别数据集,其中包含了人们在生活中的常做的行为,诸如走路、坐、奔跑以及需要的摔倒动作。此数据集使用8个摄像头在不同的方位来录制数据,内容丰富且样本多样化。数据集中每个人都有多个不同视角的摔倒图像,有左摔和右摔姿势,分辨率为720×576。

    Le2i摔倒数据集是法国学者们使用一个分辨率为320×240的相机在一个拟真的场景中录制而来。数据集中有200多个视频序列,包含办公室、咖啡室、客厅以及演讲室等不同场景。在各种场景中的人进行了多种日常动作和摔倒行为,日常动作有下蹲、行走以及弯腰等,摔倒姿势有前后摔和左右摔等,内容丰富,数据充足。

    通过对上述摔倒数据集的分析与研究,本文使用红外图像设备自行采集红外图像人体摔倒图像,建立摔倒数据集。选择在一间场景较为简单的房间为摔倒场景,将红外相机放置在房间的不同角落以获得不同方向的图像。红外相机分辨率为640×480,输入电压12V,是一款高清单目热红外成像仪。红外相机如图 2所示。

    图  2  红外相机以及电源
    Figure  2.  Infrared camera and power supply

    通过电脑读取红外相机获取的原始实时流数据,由于原始红外数据是14位的,无法使用电脑显示出来,所以使用OpenCV对其进行预处理,转为8位数据,并对图像线性拉伸,提高对比度。整套录制场景如图 3所示。

    图  3  红外数据录制场景
    Figure  3.  Infrared data recording scene

    本文实验平台是一台Intel Xeon八核E5-2620V4(2.1GHz,QPI速度8.0GT/s),64G内存的高性能计算工作站。为了验证本文提出的检测方法,邀请了几位成人模拟室内日常活动以及摔倒行为,图像中包含单人活动、两人活动以及多人(3~4人)活动,共录制了4组数据,共获取到30000多张红外图像。对已经获取的红外人体摔倒数据集进行筛选,考虑到获取数据时帧率很高,导致相邻的图像内容变化不大,经过观察选择每10张中提取一张作为有效数据,提取大约3000张图像作为训练与测试数据,其中训练集2500余张,测试集约260余张。部分数据集如图 4所示。

    图  4  部分人体摔倒数据集
    Figure  4.  Partial human fall dataset

    通过使用本文提出的检测方法在制作的红外行人摔倒数据集上进行测试,经过参数的调整,得到比较好的结果,部分实验结果如图 5所示。

    图  5  人体摔倒检测效果
    Figure  5.  Human fall detection effect

    在以往的人体摔倒检测中,摔倒的状态往往是平躺或者侧躺的姿势,本文为了提高样本的多样性,更加真实地模拟现实场景中的摔倒,添加了例如趴着、跪着摔倒以及由于摔倒而脚抬升等不同的摔倒姿势。通过图 5中的实验结果可以看出,算法能够准确地检测出各种摔倒姿态与正常两状态。对于在摔倒时发生前有行人或物体遮挡情况下亦能准确检测,能够满足在一定场景内的行人摔倒检测需求。

    为了分析本文提出算法的性能和实时性,通过使用YOLO v3、Faster RCNN算法与之做对比实验,测试结果如表 1所示。

    表  1  对比实验结果
    Table  1.  Comparison of experimental results
    Algorithm Accuracy/(%) Time/(ms/frame)
    Yolo v3 96.9 0.0421
    Faster RCNN 95.7 0.441
    Ours 98.4 0.0462
    下载: 导出CSV 
    | 显示表格

    从表中可以看出,Yolo v3与本文算法的运行速度很快,而Faster RCNN算法速度较慢。由于本文方法网络的整个输出都是直接从关键点估计得出,因此不需要基于IOU(intersection over union)的非极大值抑制NMS(non max suppression)或者其他后续处理,这对整个网络的检测速度有了很大的提升。表中可以看出本文方法在红外图像人体摔倒检测中准确率达到了98%以上,比其他两种方法高,对有遮挡和各种不同姿态的摔倒方式等较为复杂的情况下都能有效定位与识别。

    为了进一步分析实验结果的可靠性,选择摔倒检测中常用的准确率和召回率来对本文训练的模型进行评判。通过改变识别阈值,得到不同阈值下的准确率与召回率,最后得到P-R(precision-recall)曲线,如图 6所示。

    图  6  本文算法的P-R曲线
    Figure  6.  The P-R curve of the algorithm in this paper

    对于P-R曲线来说,曲线下的面积越大,即AP(average precision)值越大,证明模型的性能越好。从图 6曲线中能够看出,在使用的较少的测试数据下本文训练的模型性能优越,能够准确进行红外图像下的人体摔倒检测。

    针对人体摔倒检测问题,本文提出了一种基于关键点估计的红外图像人体摔倒检测方法。基于目前人体摔倒检测所使用的数据集特点,搭建红外图像采集系统与环境,建立了自己的红外图像人体摔倒数据集。通过关键点估计来找到人体目标中心点,然后回归人体目标属性,如目标尺寸、标签等,从而得到检测结果。实验结果表明,本文提出的方法在红外图像上能实时地进行人体摔倒检测,有较好的准确性和鲁棒性,具有较高的实际应用价值。在未来的工作中,扩展自建的红外图像人体摔倒数据集,丰富人体摔倒的场景和姿态,进一步研究红外图像下人体摔倒检测问题是未来工作的重点研究内容。

  • 图  1   屋顶传感器采集实验结果图

    Figure  1.   Experimental results collected by the sensor on the roof

    图  2   墙侧传感器安装示意图

    Figure  2.   Schematic diagram of sensor installation on the wall

    图  3   墙角传感器安装示意图

    Figure  3.   Schematic diagram of sensor installation in the corner

    图  4   跌倒检测算法流程图

    Figure  4.   Flow chart of human fall detection algorithm

    图  5   红外图像及其相关处理

    Figure  5.   Thermal images and processing

    图  6   人体定位示意图

    Figure  6.   Human body positioning diagram

    图  7   两种行为过程示意图

    Figure  7.   Diagrams of two behavioral processes

    图  8   两种行为人体像素高度变化

    Figure  8.   Changes in human pixel height under two behaviors

    图  9   逆向投影整体示意图

    Figure  9.   Overall schematic diagram of back projection

    图  10   测量点位置示意图

    Figure  10.   Schematic diagram of measuring point location

    图  11   图像单位转换示意图

    Figure  11.   Schematic diagram of image unit conversion

    图  12   逆向投影局部示意图

    Figure  12.   Partial schematic diagram of back projection

    图  13   两种行为人体真实高度变化

    Figure  13.   Changes in human real height under two behaviors

    图  14   平滑后两种行为人体真实高度变化

    Figure  14.   Changes in human pixel height after smoothing under two behaviors

    图  15   行走路线示意图

    Figure  15.   Schematic diagram of walking routes

    图  16   跌倒方向示意图

    Figure  16.   Schematic diagram of falling directions

    表  1   行走实验数据

    Table  1   Walking experiment data

    Route Human body height change by non-back projection algorithm Δw1/pixel Human body height change by back projection algorithm Δw2/mm
    Minimum Maximum Average value Minimum Maximum Average value
    1 6 8 7 43 165 106
    2 9 11 10 48 187 118
    3 12 14 13 52 223 138
    4 8 10 9 45 182 115
    5 5 7 6 41 158 102
    下载: 导出CSV

    表  2   跌倒实验数据

    Table  2   Fall experiment data

    Route Human body height change by non-back projection algorithm Δf1/pixel Human body height change by back projection algorithm Δf1/mm
    Minimum Maximum Average value Minimum Maximum Average value
    1 17 20 18 991 1475 1233
    2 16 18 17 986 1465 1128
    3 12 15 13 886 1174 1032
    4 15 17 16 975 1253 1114
    5 17 19 18 988 1484 1238
    下载: 导出CSV

    表  3   动作要求

    Table  3   Action requirements

    Fall action Fall down
    Non-fall action Walk back and forth
    Sit on the chair
    Standing
    Lying in bed
    Squat fast
    下载: 导出CSV

    表  4   检测情况混淆矩阵

    Table  4   Confusion matrix of detection results

    Real state Predictor state
    Fall Non-fallng
    Fall 79 1
    Walk 0 40
    Sit 0 40
    Stand 0 40
    Lay 0 40
    Squat 3 37
    下载: 导出CSV

    表  5   本文方法与其他方法对比结果

    Table  5   Results comparison

    Method of this paper Reference [16]
    Sensitivity/(%) 98.75 91.25
    Specificity/(%) 98.50 86.50
    Accuracy/(%) 98.57 87.86
    下载: 导出CSV
  • [1] 邓志锋, 闵卫东, 邹松. 一种基于CNN和人体椭圆轮廓运动特征的摔倒检测方法[J]. 图学学报, 2018, 39(6): 1042-1047. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX201806005.htm

    DENG Zhifeng, MIN Weidong, ZOU Song. A fall detection method based on CNN and motion features of human elliptical contour[J]. Journal of Graphics, 2018, 39(6): 1042-1047. https://www.cnki.com.cn/Article/CJFDTOTAL-GCTX201806005.htm

    [2]

    Giovanna S, Ivanoe D, Giuseppe D P. A supervised approach to automatically extract a set of rules to support fall detection in an mHealth system[J]. Applied Soft Computing, 2015, 34: 205-216. DOI: 10.1016/j.asoc.2015.04.060

    [3] 胡双杰, 秦建邦, 郭薇. 基于特征自动提取的跌倒检测算法[J]. 传感技术学报, 2018, 31(12): 1842-1847. https://www.cnki.com.cn/Article/CJFDTOTAL-CGJS201812011.htm

    HU Shuangjie, QIN Jianbang, GUO Wei. A fall detection algorithm with automatic feature extraction[J]. Chinese Journal of Sensors and Actuators, 2018, 31(12): 1842-1847. https://www.cnki.com.cn/Article/CJFDTOTAL-CGJS201812011.htm

    [4] 郑毅, 李凤, 张丽, 等. 基于长短时记忆网络的人体姿态检测方法[J]. 计算机应用, 2018, 38(6): 1568-1574. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJY201806008.htm

    ZHENG Yi, LI Feng, ZHANG Li, et al. Human posture detection method based on long short term memory network[J]. Journal of Computer Applications, 2018, 38(6): 1568-1574. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJY201806008.htm

    [5]

    Giuffrida D, Benetti G, Martini D D, et al. Fall detection with supervised machine learning using wearable sensor[C]//Proceedings of 17th International Conference on Industrial Informatics (INDIN) of IEEE, 2019: 253-259.

    [6]

    Kumar V S, Acharya K G, Sandeep B, et al. Wearable sensor-based human fall detection wireless system[J]. Wireless Communication Networks and Internet of Things, 2019, 493: 217-234 DOI: 10.1007/978-981-10-8663-2_23

    [7]

    Mehmood A, Nadeem A, Ashraf M, et al. A novel fall detection algorithm for elderly using Shimmer wearable sensors[J]. Health and Technology, 2019, 9(4): 631-646. DOI: 10.1007/s12553-019-00298-4

    [8]

    Kerdjidj O, Ramzan N, Ghanem K, et al. Fall detection and human activity classification using wearable sensors and compressed sensing[J]. Journal of Ambient Intelligence and Humanized Computing, 2020, 11(1): 349-361. DOI: 10.1007/s12652-019-01214-4

    [9]

    MIN W D, CUI H, RAO H, et al. Detection of human falls on furniture using scene analysis based on deep learning and activity characteristics[J]. IEEE Access, 2018, 6(99): 9324-9335. http://www.onacademic.com/detail/journal_1000040195826110_71bc.html

    [10]

    KONG Y Q, HUANG J H, HUANG S S, et al. Learning spatiotemporal representations for human fall detection in surveillance video[J]. Journal of Visual Communication and Image Representation, 2019, 59: 215-230. DOI: 10.1016/j.jvcir.2019.01.024

    [11]

    QIU Z, LIANG X Q, CHEN Q Q, et al. Old man fall detection based on surveillance video object tracking[C]//Proceedings of 10th International Symposium on Parallel Architectures, Algorithms and Programming, 2019: 159-167.

    [12]

    FAN K B, WANG P, ZHUANG S. Human fall detection using slow feature analysis[J]. Multimedia Tools and Applications, 2019, 78: 9101-9128. DOI: 10.1007/s11042-018-5638-9

    [13]

    Shota M, Jihoon H and Tomoaki O. A fall detection system using low resolution infrared array sensor[C]//Proceedings of 25th International Symposium on Personal, Indoor and Mobile Radio Communications of IEEE, 2014: 2109-2113.

    [14] 杨任兵, 程文播, 钱庆, 等. 红外图像中基于多特征提取的跌倒检测算法研究[J]. 红外技术, 2017, 39(12): 1131-1138. http://hwjs.nvir.cn/article/id/hwjs201712011

    YANG Renbing, CHENG Wenbo, QIAN Qing, et al. Research on fall detection algorithm based on multi-feature extraction in infrared image[J]. Infrared Technology, 2017, 39(12): 1131-1138. http://hwjs.nvir.cn/article/id/hwjs201712011

    [15] 王召军, 许志猛, 陈良琴. 基于红外阵列传感器的人体行为识别系统研究[J]. 红外技术, 2020, 42(3): 231-237. http://hwjs.nvir.cn/article/id/hwjs202003005

    WANG Zhaojun, XU Zhimeng, CHEN Liangqin. Human behavior recognition system based on infrared array sensors[J]. Infrared Technology, 2020, 42(3): 231-237. http://hwjs.nvir.cn/article/id/hwjs202003005

    [16]

    LIANG Q S, YU L, ZHAI X P, et al. Activity recognition based on thermopile imaging array sensor[C]//Proceedings of International Conference on Electro/Information Technology (EIT) of IEEE, 2018: 770-773.

  • 期刊类型引用(3)

    1. 邬苏秦,王府圣,周川鸿,朱卫纲,曲卫. 基于深度学习的毫米波雷达人体摔倒检测系统研究. 电子设计工程. 2024(02): 181-186 . 百度学术
    2. 丁玲,赵昆. 基于人体关键点识别的机器人舞姿模仿系统研究. 自动化与仪器仪表. 2024(06): 169-173 . 百度学术
    3. 王梦溪,李峻. 老年人跌倒检测技术研究综述. 计算机与现代化. 2024(08): 30-36 . 百度学术

    其他类型引用(1)

图(16)  /  表(5)
计量
  • 文章访问数:  580
  • HTML全文浏览量:  91
  • PDF下载量:  79
  • 被引次数: 4
出版历程
  • 收稿日期:  2020-11-09
  • 修回日期:  2021-01-11
  • 刊出日期:  2021-10-19

目录

/

返回文章
返回