基于融合网络的井下人员行为识别方法

张雷, 冉凌鎛, 代婉婉, 朱永红, 史新国

张雷,冉凌鎛,代婉婉,等. 基于融合网络的井下人员行为识别方法[J]. 工矿自动化,2023,49(3):45-52. DOI: 10.13272/j.issn.1671-251x.2022120015
引用本文: 张雷,冉凌鎛,代婉婉,等. 基于融合网络的井下人员行为识别方法[J]. 工矿自动化,2023,49(3):45-52. DOI: 10.13272/j.issn.1671-251x.2022120015
ZHANG Lei, RAN Lingbo, DAI Wanwan, et al. Behavior recognition method for underground personnel based on fusion network[J]. Journal of Mine Automation,2023,49(3):45-52. DOI: 10.13272/j.issn.1671-251x.2022120015
Citation: ZHANG Lei, RAN Lingbo, DAI Wanwan, et al. Behavior recognition method for underground personnel based on fusion network[J]. Journal of Mine Automation,2023,49(3):45-52. DOI: 10.13272/j.issn.1671-251x.2022120015

基于融合网络的井下人员行为识别方法

基金项目: 江苏省高等学校基础科学(自然科学)研究项目(21KJB510025);国家重点研发计划项目(2017YFC0804401);国家自然科学基金项目(52074273);教育部产学合作协同育人项目(BY2021160202102356012);徐州市科技计划项目(KC19208);淄矿集团智慧矿山关键技术研发开放基金项目(2019LH05)。
详细信息
    作者简介:

    张雷(1987—),男,江苏徐州人,讲师,博士,研究方向为移动无线感知,E-mail:11905@ xzit.edu.cn

    通讯作者:

    朱永红(1979—),女,江苏徐州人,副教授,博士,研究方向为无线传感器网络,E-mail:zhyh@xzit.edu.cn

  • 中图分类号: TD67

Behavior recognition method for underground personnel based on fusion network

  • 摘要: 井下人员行为识别是保障煤矿安全生产的重要措施。针对现有井下人员行为识别研究缺少对感知机理的研究与分析且特征提取手段单一的问题,提出一种基于融合网络的井下人员行为识别方法。该方法主要包括数据预处理、特征构建和判识网络构造3个部分。数据预处理:通过信道状态信息(CSI)商模型、子载波去直流和离散小波去噪对采集的CSI数据进行处理,以降低环境噪声、设备噪声等的影响。特征构建:将处理后的数据利用格拉姆和/差角场 (GASF/GADF)转换成图像,从而保留数据的空间和时间特性。判识网络构造:根据人员动作的特点,提出一种由基于门控循环单元(GRU)的编解码网络和多尺度卷积神经网络(CNN)组成的融合网络,利用GRU保留前后数据之间的关联性,同时利用注意力机制的权重分配策略有效提取关键特征,以提高行为识别的准确率。实验结果表明:该方法对行走、摘帽子、扔东西、坐、抽烟、挥手、跑动、睡觉8种动作的平均识别准确率为97.37%,对睡觉和坐的识别准确率最高,最容易发生误判的动作是行走和跑动;使用准确率、精确率、召回率和F1分数作为评价指标,得出融合网络的性能优于CNN和GRU,人员行为识别准确率高于HAR系统、WiWave系统和Wi−Sense系统;正常速度下行走和摘帽子2种动作的平均识别精度为95.6%,高于快速动作情况下的93.6%和慢速动作情况下的92.7%;收发设备之间的距离为2 m和2.5 m时,识别准确率较高。
    Abstract: Underground personnel behavior recognition is an important measure to ensure safe production in coal mines. The existing research on behavior recognition of underground personnel lacks research and analysis on the perception mechanism, and the feature extraction method is simple. In order to solve the above problems, a behavior recognition method for underground personnel based on fusion networks is proposed. The method mainly includes three parts: data preprocessing, feature construction, and recognition network construction. Data preprocessing: the collected channel status information (CSI) data is processed through CSI quotient models, subcarrier denoising, and discrete wavelet denoising to reduce the impact of environmental noise and equipment noise. Feature construction: the processed data is transformed into images using the Gramian angular summation/difference fields (GASF/GADF) to preserve the spatial and temporal features of the data. Recognition network construction: according to the features of personnel actions, a fusion network composed of a gate recurrent unit (GRU) based encoding and decoding network and a multiscale convolutional neural network (CNN) is proposed. GRU is used to preserve the correlation between pre and post data. The weight allocation strategy of the attention mechanism is used to effectively extract key features to improve the accuracy of behavior recognition. The experimental results show that the average recognition accuracy of this method for eight movements, namely walking, taking off a hat, throwing things, sitting, smoking, waving, running, and sleeping, is 97.37%. The recognition accuracy for sleeping and sitting is the highest, and the most prone to misjudgment are walking and running. Using accuracy, precision, recall, and F1 score as evaluation indicators, it is concluded that the performance of the fusion network is superior to CNN and GRU. The accuracy of personnel behavior recognition is higher than the HAR system, WiWave system and Wi-Sense system. The average recognition accuracy of walking and taking off a hat at normal speed is 95.6%, which is higher than 93.6% for fast motion and 92.7% for slow motion. When the distance between transceiver devices is 2 m and 2.5 m, the recognition accuracy is higher.
  • 许多煤矿事故是由井下人员的不合理行为造成,因此,井下人员行为识别是保障煤矿安全生产的重要措施。当前井下人员行为识别主要通过图像识别方式实现,由于煤矿井下环境复杂、光线昏暗并存在大量拍摄死角,使得基于视频和图像的识别方法受到一定限制[1]。WiFi网络具有部署简单、覆盖范围大等特点,已在井下得到广泛部署。通过判断WiFi信号强度的变化可实现井下人员行为识别[2-4],然而,由于井下环境复杂,易出现信号延迟、反射等现象,使得信号强度经常发生异常变化[5],不能实现细粒度检测。

    随着特殊驱动发布,研究者可以从一些普通设备中获得信道状态信息(Channel Status Information,CSI),相比于信号强度,CSI能够提供更多、更细粒度的特征值[6-8]。初始的研究主要是直接利用CSI提供的幅度和相位作为特征值实现行为识别[9-10],随着研究的深入,一些基于深度学习的方法也被应用到无线感知中。文献[11]提出了一种三层长短期记忆(Long Short-Term Memory,LSTM)网络,实现了对不同行为的分类。文献[12]提出采用三层卷积神经网络(Convolutional Neural Network, CNN)提取特征,平均行为识别精度为86.3%。

    现有研究利用原始信息构造特征值,通过建立不同的神经网络实现人员行为识别,但缺少对感知机理的研究与分析,且特征提取手段单一。针对该问题,本文分析了人员行为感知机理,提出利用CSI时序信息和统计信息构建多维度人员行为特征信息,在此基础上,提出了一种由多尺度CNN与基于门控循环单元(Gate Recurrent Unit,GRU)的编解码器网络组成的融合网络,用于实现井下人员行为识别。

    CSI是物理层的细粒度信息,描述了无线信号在每个信道上的散射、反射和衰减等信息[13]。信号在正交频分复用系统中通过多个子载波进行调制,子载波经过多条路径到达接收端后,信道频率响应(Channel Frequency Response,CFR)为[14]

    $$ H({f_k}) = {{\rm{exp}}({ - {\rm{j}}\Delta \theta }})\sum\limits_{l = 1}^L {{ \alpha _l}} {{\rm{exp}}({ - {\rm{j}}2{\text{π}} {f_k}{\tau _l})}} $$ (1)

    式中:fk为第k个子载波的频率;$ \Delta \theta $为不同频率子载波之间的相位差;L为路径总数;$ {\alpha _l} $为第l条路径的信号衰减系数;$ {\tau _l} $为第l条路径的信号传输时延。

    将CFR分解为静态分量和动态分量:

    $$ H({f_k}) = {{\rm{exp}}({ - {\rm{j}}\Delta \theta }})({H_{\rm{s}}}({f_k}) + {{\boldsymbol{H}}_{\rm{d}}}({f_k})) $$ (2)

    式中:$ {H_{\rm{s}}}({f_k}) $为CFR静态分量,可取常量;$ {{\boldsymbol{H}}_{\rm{d}}}({f_k}) $为CFR动态分量,是由人员动作引起的相关动态变化向量的叠加值[15]

    结合菲涅尔区阐述不同位置处人员动作导致CSI变化的规律。菲涅耳区原理如图1所示。假设P1P2分别为接收机和发射机的位置,Qn为以P1P2为焦点的第n个椭圆上的点,对于波长为$ \lambda $的WiFi信号,有

    $$ \left| {{P_1}{Q_n}} \right| + \left| {{Q_n}{P_2}} \right| - \left| {{P_1}{P_2}} \right| = n\lambda /2 $$ (3)
    图  1  菲涅耳区原理
    Figure  1.  Fresnel zone principle

    当人员动作出现在Q1位置时,动态路径信号与视距信号的行程差为$ \lambda /2 $,相位差为π,同时反射引入的相位偏转为π,则2路信号的相位差为2π。依此类推,当人员在Q2位置动作时,2路信号的相位差为3π。在人员动作切割菲涅耳区的过程中,2路信号不断出现相干叠加和相干相消的现象,CSI将呈现出类正弦波的变化。

    基于融合网络的井下人员行为识别方法如图2所示,主要包括数据预处理、特征构建和判识网络构造3个部分。数据预处理模块通过CSI商模型、子载波去直流和离散小波去噪对采集的CSI数据进行处理,再将动作特征转换为图像,送入融合网络中进行识别。

    图  2  行为识别框架
    Figure  2.  Behavior recognition framework

    由于设备制作工艺和环境的影响,数据采集过程中会引入误差。为了减少该误差,采用CSI商模型对采集的数据进行处理。CSI商模型是将接收天线之间的CSI信息相除,即振幅相除,相位相减。天线间的CSI商为

    $$ {d_{\rm{q}}}({f_k}) = \frac{{{H_{{\rm{s}}1}}({f_k}) + {{\boldsymbol{H}}_{{\rm{d}}1}}({f_k})}}{{{H_{{\rm{s}}2}}({f_k}) + {{\boldsymbol{H}}_{{\rm{d}}2}}({f_k})}} $$ (4)
    $$ {{\boldsymbol{H}}_{{{\rm{d}}1}}}({f_k}) = {A_1}(f_k){{\rm{exp}}\left( { - {\rm{j}}2{\text{π}} \dfrac{{{m_1}}}{\lambda }}\right)} $$ (5)
    $$ {{\boldsymbol{H}}_{{{\rm{d}}2}}}({f_k}) = {A_2}(f_k){{\rm{exp}}\left( { - {\rm{j}}2{\text{π}} \dfrac{{{m_2}}}{\lambda }} \right)} $$ (6)

    式中:$ {H_{{\rm{s}}1}}({f_k}) $$ {H_{{\rm{s}}2}}({f_k}) $ 分别为天线1和天线2的CFR静态分量;$ {{\boldsymbol{H}}_{{\rm{d}}1}}({f_k}) $$ {{\boldsymbol{H}}_{{\rm{d}}2}}({f_k}) $分别为天线1和天线2的CFR动态分量;A1$({f_k}) $A2$({f_k}) $分别为2条传输路径的信号衰减系数;m1m2分别为天线1、天线2到人员的距离。

    将式(5)和式(6)代入式(4)可得

    $$ {d_{\rm{q}}}(f_k) = \frac{{{H_{{\rm{s}}1}}(f_k) + {A_1}(f_k){{\rm{exp}}\left( { - {\rm{j}}2{\text{π}} \dfrac{{{m_1}}}{\lambda }} \right)}}}{{{H_{{\rm{s}}2}}(f_k) + {A_2}(f_k){{\rm{exp}} \left( { - {\rm{j}}2{\text{π}} \dfrac{{\Delta m}}{\lambda }}\right)} {{\rm{exp}} \left( { - {\rm{j}}2{\text{π}} \dfrac{{{m_1}}}{\lambda }}\right)}}} $$ (7)

    式中$ \Delta m $为2个天线的间距,$ \Delta m $=m2−m1

    人员动作时,子载波受到直流信号的影响,导致采集数据产生向上或向下的偏移,从而影响数据准确性,需要进行去直流处理。设h为一组经过CSI商模型处理后的数据,对h进行离散傅里叶变换[16],将变换后信号频率置0即可得到直流分量,用处理后的数据减去直流分量,即可去除子载波中的直流信号。

    在极低信噪比情况下,可用CSI信息会淹没在设备产生的硬件噪声中,从而导致识别结果出现严重偏差。为了降低设备噪声的影响,使用离散小波变换进行去噪处理[17]

    u为有效数据,e为噪声数据,则h=u+e,对h进行小波处理,可得

    $$ {D} (h) = {{D} _u}(a,b) + {{D} _e}(a,b) $$ (8)

    式中:D为小波处理函数;DuDe分别为有效数据的近似系数、噪声数据的细节系数;ab分别为平移因子和伸缩因子。

    在小波处理过程中,通过高通滤波器和低通滤波器对h进行降采样,获得含有设备噪声的细节系数及含有人员动作相关信息的近似系数,再对细节系数进行多次小波处理,从而消除设备引入的噪声。

    传统的特征提取方法将处理后的CSI信息直接送入CNN中进行特征提取。然而,这些提取的特征在经过多层池化计算后,表达能力会逐渐减弱,不利于准确描述人员行为[18]。因此,本文利用格拉姆和/差角场 (Gramian Angular Summation/Difference Fields,GASF/GADF)将处理后的数据转换成图像,从而保留数据的空间和时间特性[19]

    对数据X={x1x2,…,xN}(N为序列中数据个数)进行归一化,将归一化数据编码为角余弦,使用极坐标表示新的序列:

    $$ \left\{ \begin{gathered} \phi_i = {\rm{arccos}}\;{{\tilde x}_i} \qquad i =1,2,\cdots, N \\ r_i = \frac{{{t_i}}}{t_0} \\ \end{gathered} \right. $$ (9)

    式中:$ \phi _i$为数据序列转变成极坐标后对应的角度;$ {\tilde x_i} $$x_i $归一化后的值,$- 1 \leqslant {{\tilde x}_i} \leqslant 1 $rixi的归一化采样时间戳;tixi的采样时间戳;t0为序列总的采样时间。

    分别利用余弦和正弦函数计算数据之间的和与差,将计算结果放入矩阵中,从而构建出能够表征数据序列相关性的特征矩阵:

    $$ {{{\boldsymbol{S}}}} = \left[ {\begin{array}{*{20}{c}} {\cos ({\phi _1} + {\phi _1})}&{\cos ({\phi _1} + {\phi _2})}& \cdots &{{\text{ }}\cos ({\phi _1} + {\phi _N})} \\ {\cos ({\phi _2} + {\phi _1})}&{{\text{ }}\cos ({\phi _2} + {\phi _2})}& \cdots &{{\text{ }}\cos ({\phi _2} + {\phi _N})} \\ { \vdots {\text{ }}}& \vdots & & \vdots \\ {\cos ({\phi _N} + {\phi _1}){\text{ }}}&{\cos ({\phi _N} + {\phi _2}){\text{ }}}& \cdots &{\cos ({\phi _N} + {\phi _N})} \end{array}{\text{ }}} \right] $$ (10)
    $$ {\boldsymbol{E}} = \left[ {\begin{array}{*{20}{c}} {\sin ({\phi _1} - {\phi _1})}&{\sin ({\phi _1} - {\phi _2})}& \cdots &{{\text{ }}\sin ({\phi _1} - {\phi _N})} \\ {\sin ({\phi _2} - {\phi _1})}&{{\text{ }}\sin ({\phi _2} - {\phi _2})}& \cdots &{{\text{ }}\sin ({\phi _2} - {\phi _N})} \\ { \vdots {\text{ }}}& \vdots & & \vdots \\ {\sin ({\phi _N} - {\phi _1}){\text{ }}}&{\sin ({\phi _N} - {\phi _2}){\text{ }}}& \cdots &{\sin ({\phi _N} - {\phi _N})} \end{array}} \right] $$ (11)

    由于人员动作的复杂性和多样性,需要构建更多有用的特征来提高分类精度。本文提取的特征信息包括10个时域特征、5个频域特征和1个能量特征。时域特征为最大值、最小值、均值、方差、标准差、峰峰值、均方根、偏度、四分位距、波形因数,频域特征为峰值因子、最小频率、最大频率、谱概率、频谱熵,能量特征为信号能量。

    根据人员动作的特点,提出一种由基于GRU的编解码网络和多尺度CNN组成的融合网络,如图3所示。利用GRU保留前后数据之间的关联性,同时利用注意力机制的权重分配策略有效提取关键特征,以提高行为识别的准确率。输入数据主要来自2个部分:一部分是利用GASF/GADF建立的图像特征,该部分特征用多尺度CNN进行处理;另一部分是从CSI信息中提取的统计特征,该部分特征用基于GRU的编解码网络进行处理。对2个部分的特征进行拼接,再通过多层感知机实现动作识别。

    图  3  井下人员行为识别网络
    Figure  3.  Underground personnel behavior recognition network

    基于GRU的编解码网络和多尺度CNN的参数见表1表2

    表  1  基于GRU的编解码网络参数
    Table  1.  Parameters of encoding and decoding network based on GRU
    序号网络层输出维度
    1GRU256×512
    2GRU256×256
    3GRU128×256
    4GRU128×128
    5Transposed Convolution128×128
    6Self−Attention128×128
    7Transposed Convolution128×256
    8Self−Attention128×256
    9Transposed Convolution128×512
    10Self−Attention128×512
    111D−Convolution64×256
    12Flattern2048×1
    下载: 导出CSV 
    | 显示表格
    表  2  多尺度CNN参数
    Table  2.  Parameters of multi-scale CNN
    序号网络层核大小核数目输出维度
    1ECA512×1600
    1−1Con1−15256256×800
    1−2Con1−27256256×800
    1−3Con1−31256256×800
    2−1Con2−17512512×400
    2−2Con2−23512512×400
    2−3Con2−35512512×400
    3−1Con3−13256256×400
    3−2Con3−25256256×400
    3−3Con3−37256256×400
    4−1Pooling4−1128×512
    4−2Pooling4−2128×512
    4−3Pooling4−3128×512
    5−1ECA128×512
    5−2ECA128×512
    5−3ECA128×512
    6Flatten2048×1
    下载: 导出CSV 
    | 显示表格

    为了验证井下人员行为识别方法的普适性,在中国矿业大学文昌校区的实验巷道内进行了实验。实验巷道长度为45 m,宽度约为5 m,如图4所示。

    图  4  实验巷道
    Figure  4.  Experimental roadway

    在实验过程中,使用带有三天线的D−LINK85无线路由器作为CSI信息发射端,使用装有Intel 5300网卡的计算机作为CSI信息接收端,并在主机中安装了CSI−tool工具。为了方便查看结果,开发了人员行为识别结果显示程序,如图5所示,通过该程序能够直观显示判识网络的运行结果。

    图  5  人员行为识别结果显示
    Figure  5.  Display of human behavior recognition results

    实验中共邀请8位性别和体型各异的志愿者完成包括行走、摘帽子等在内的8种动作,见表3。这8种动作代表井下工作人员存在潜在的危险行为。

    表  3  实验动作
    Table  3.  Experimental actions
    动作潜在危险行为
    行走进入危险区域
    摘帽子摘安全帽
    扔东西乱扔工具
    在危险区域休息
    抽烟违规抽烟
    挥手斗殴
    跑动违规下车
    睡觉在危险区域睡觉
    下载: 导出CSV 
    | 显示表格

    对8种动作进行识别后得到的混淆矩阵如图6所示。矩阵的每一行代表真实动作,每一列代表模型预测的动作。8种动作的平均识别准确率为97.37%,其中,对睡觉和坐的识别准确率最高,因为这2个动作相对简单,所以更容易识别。而抽烟等上肢动作持续时间和幅度差距较小,存在一定的判识难度。在所有动作中,最容易发生误判的动作是行走和跑动,因为这2个动作只是在速度上有差异,人员肢体动作十分相近。

    图  6  8种动作识别结果混淆矩阵
    Figure  6.  Confusion matrix of recognition results of 8 kinds of action

    使用准确率、精确率、召回率和F1分数作为评价指标,将融合网络分别与CNN和GRU进行比较,结果如图7所示。可看出融合网络的性能最佳,其次是GRU。这主要是由于动作存在一定时间相关性,融合网络在利用时间相关性的同时,还通过不同链路信息构建图像,从而充分利用了链路之间的信息。而CNN将链接信息直接整合到矩阵中,对链路信息的利用不完整。

    图  7  不同网络模型识别结果对比
    Figure  7.  Comparison of recognition results of different network models

    将本文方法与HAR系统[20]、WiWave系统[21]和Wi−Sense系统[22]进行比较。其中HAR系统采用KNN作为行为识别模型,WiWave系统在卷积架构中引入了离散小波变换,Wi−Sense系统根据处理后的时变数据谱图形成多普勒指纹,并将其输入神经网络中进行判识。实验结果如图8所示。在HAR系统中,由于KNN不能表示动作之间的复杂关系,所以识别精度低于WiWave系统和本文方法。WiWave系统可以将小波变换良好的时频局部特征与神经网络的自学习能力相结合,但是没有考虑不同动作在连续时间内的不同特征,导致识别精度低于本文方法。Wi−Sense系统缺少对整体数据特征的挖掘,因此准确率低于本文方法。

    图  8  不同系统识别结果对比
    Figure  8.  Comparison of recognition results of different systems

    分别选择Adam,SGD,Ada Delta和RMS Prop作为网络优化器,测试在不同学习率下的识别准确率,结果见表4。可看出采用Adam作为优化器,学习率为0.001时,8种动作的平均识别准确率最高,达97.37%,而当学习率大于0.001时,模型的准确率开始下降。因此,在模型训练过程中,选择Adam作为优化器,并将学习率设置为0.001。

    表  4  不同优化器和学习率下的识别准确率
    Table  4.  Recognition accuracy under different optimizers and learning rates
    学习率准确率/%
    Ada DeltaSGDRMS PropAdam
    0.000195.5494.7596.3397.01
    0.00193.4394.3794.6497.37
    0.0196.4594.8893.4192.15
    0.0592.9792.6490.7292.89
    0.188.2589.7691.4591.99
    下载: 导出CSV 
    | 显示表格

    由于不同人员做相同动作的时间和幅度不同,可能导致在一定持续时间内采集的数据存在差异,从而影响识别精度。测试了行走与摘帽子2种动作在快速、正常速度和慢速完成时的平均识别准确率,结果如图9所示。可看出本文提出的方法能够在不同速率下取得较高的识别准确率。对正常速度动作的平均识别准确率为95.6%,高于快速动作情况下的93.6%和慢速动作情况下的92.7%。这主要是由于速度较快时能够获取的特征较少,而速度较慢时则会引入无用信息,从而对识别精度产生影响。

    图  9  动作速度对识别精度的影响
    Figure  9.  Influence of action speed on recognition precision

    分别设置收发设备之间的距离为0.5,1,1.5,2,2.5,3,3.5 m,测试不同距离对识别精度的影响,结果如图10所示。可看出距离为2 m和2.5 m时,识别准确率较高。当距离为0.5 m时,由于距离较近,一些对信号传输路径干扰较小的动作会使原来的多通信链路退化为单通信链路,从而使获得的特征信息减少,导致识别准确率下降。而当距离增加时,会引入额外的传输路径,引入更多噪声,从而影响识别精度。

    图  10  不同距离下的识别精度
    Figure  10.  Recognition precision at different distances

    1) 提出一种基于融合网络的井下人员行为识别方法。通过CSI商模型、子载波去直流和离散小波去噪对采集的CSI数据进行预处理,采用GASF/GADF将CSI数据转换成图像数据,最后通过融合网络实现井下人员行为识别。

    2) 实验结果表明,该方法对行走、摘帽子、扔东西、坐、抽烟、挥手、跑动、睡觉8种动作的平均识别准确率为97.37%,对睡觉和坐的识别准确率最高,最容易发生误判的动作是行走和跑动。

    3) 对比分析结果表明,融合网络的性能优于CNN和GRU,人员行为识别准确率高于HAR系统、WiWave系统和Wi−Sense系统。

    4) 影响因素分析结果表明:采用Adam作为优化器,学习率为0.001时,8种动作的平均识别准确率最高;正常速度下行走和摘帽子2种动作的平均识别精度为95.6%,高于快速动作情况下的93.6%和慢速动作情况下的92.7%;收发设备之间的距离为2 m和2.5 m时,识别准确率较高。

  • 图  1   菲涅耳区原理

    Figure  1.   Fresnel zone principle

    图  2   行为识别框架

    Figure  2.   Behavior recognition framework

    图  3   井下人员行为识别网络

    Figure  3.   Underground personnel behavior recognition network

    图  4   实验巷道

    Figure  4.   Experimental roadway

    图  5   人员行为识别结果显示

    Figure  5.   Display of human behavior recognition results

    图  6   8种动作识别结果混淆矩阵

    Figure  6.   Confusion matrix of recognition results of 8 kinds of action

    图  7   不同网络模型识别结果对比

    Figure  7.   Comparison of recognition results of different network models

    图  8   不同系统识别结果对比

    Figure  8.   Comparison of recognition results of different systems

    图  9   动作速度对识别精度的影响

    Figure  9.   Influence of action speed on recognition precision

    图  10   不同距离下的识别精度

    Figure  10.   Recognition precision at different distances

    表  1   基于GRU的编解码网络参数

    Table  1   Parameters of encoding and decoding network based on GRU

    序号网络层输出维度
    1GRU256×512
    2GRU256×256
    3GRU128×256
    4GRU128×128
    5Transposed Convolution128×128
    6Self−Attention128×128
    7Transposed Convolution128×256
    8Self−Attention128×256
    9Transposed Convolution128×512
    10Self−Attention128×512
    111D−Convolution64×256
    12Flattern2048×1
    下载: 导出CSV

    表  2   多尺度CNN参数

    Table  2   Parameters of multi-scale CNN

    序号网络层核大小核数目输出维度
    1ECA512×1600
    1−1Con1−15256256×800
    1−2Con1−27256256×800
    1−3Con1−31256256×800
    2−1Con2−17512512×400
    2−2Con2−23512512×400
    2−3Con2−35512512×400
    3−1Con3−13256256×400
    3−2Con3−25256256×400
    3−3Con3−37256256×400
    4−1Pooling4−1128×512
    4−2Pooling4−2128×512
    4−3Pooling4−3128×512
    5−1ECA128×512
    5−2ECA128×512
    5−3ECA128×512
    6Flatten2048×1
    下载: 导出CSV

    表  3   实验动作

    Table  3   Experimental actions

    动作潜在危险行为
    行走进入危险区域
    摘帽子摘安全帽
    扔东西乱扔工具
    在危险区域休息
    抽烟违规抽烟
    挥手斗殴
    跑动违规下车
    睡觉在危险区域睡觉
    下载: 导出CSV

    表  4   不同优化器和学习率下的识别准确率

    Table  4   Recognition accuracy under different optimizers and learning rates

    学习率准确率/%
    Ada DeltaSGDRMS PropAdam
    0.000195.5494.7596.3397.01
    0.00193.4394.3794.6497.37
    0.0196.4594.8893.4192.15
    0.0592.9792.6490.7292.89
    0.188.2589.7691.4591.99
    下载: 导出CSV
  • [1] 陶志勇,郭京,刘影. 基于多天线判决的CSI高效人体行为识别方法[J]. 计算机科学与探索,2021,15(6):1122-1132. DOI: 10.3778/j.issn.1673-9418.2005021

    TAO Zhiyong,GUO Jing,LIU Ying. Efficient human behavior recognition method of CSI based on multi-antenna judgment[J]. Journal of Frontiers of Computer Science and Technology,2021,15(6):1122-1132. DOI: 10.3778/j.issn.1673-9418.2005021

    [2]

    GU Yu,WANG Yantong,WANG Meng,et al. Secure user authentication leveraging keystroke dynamics via Wi-Fi sensing[J]. IEEE Transactions on Industrial Informatics,2022,18(4):2784-2795. DOI: 10.1109/TII.2021.3108850

    [3]

    GORRINI A,MESSA F,CECCARELLI G,et al. Covid-19 pandemic and activity patterns in Milan. Wi-Fi sensors and location-based data[J]. TeMA-Journal of Land Use,Mobility and Environment,2021,14(2):211-226.

    [4]

    CHEN Liangqin,TIAN Liping,XU Zhimeng,et al. A survey of WiFi sensing techniques with channel state information[J]. ZTE Communications,2020,18(3):57-63.

    [5]

    MA Yongsen,ZHOU Gang,WANG Shuangquan. WiFi sensing with channel state information:a survey[J]. ACM Computing Surveys,2019,52(3):1-36.

    [6]

    FANG Yuanrun,XIAO Fu,SHENG Biyun,et al. Cross-scene passive human activity recognition using commodity WiFi[J]. Frontiers of Computer Science,2022,16:1-11.

    [7]

    ZHANG Lei,ZHANG Yue,BAO Rong,et al. A novel WiFi-based personnel behavior sensing with a deep learning method[J]. IEEE Access,2022,10:120136-120145. DOI: 10.1109/ACCESS.2022.3222381

    [8] 魏忠诚,张新秋,连彬,等. 基于Wi-Fi信号的身份识别技术研究[J]. 物联网学报,2021,5(4):107-119. DOI: 10.11959/j.issn.2096-3750.2021.00213

    WEI Zhongcheng,ZHANG Xinqiu,LIAN Bin,et al. A survey on Wi-Fi signal based identification technology[J]. Chinese Journal on Internet of Things,2021,5(4):107-119. DOI: 10.11959/j.issn.2096-3750.2021.00213

    [9]

    WANG Yan, LIU Jian, CHEN Yingying, et al. E-eyes: device-free location-oriented activity identification using fine-grained WiFi signatures[C]. Proceedings of the 20th Annual International Conference on Mobile Computing and Networking, 2014: 617-628.

    [10]

    YAN Huan,ZHANG Yong,WANG Yujie. WiAct:a passive WiFi-based human activity recognition system[J]. IEEE Sensors Journal,2019,20(1):296-305.

    [11] 熊小樵,冯秀芳,丁一. 基于CSI的手势识别方法研究[J]. 计算机应用与软件,2022,39(1):181-187. DOI: 10.3969/j.issn.1000-386x.2022.01.027

    XIONG Xiaoqiao,FENG Xiufang,DING Yi. Research on hand gesture recognition method based on CSI[J]. Computer Applications and Software,2022,39(1):181-187. DOI: 10.3969/j.issn.1000-386x.2022.01.027

    [12]

    ATITALLAH B B, ABBASI M B, BARIOUL R, et al. Simultaneous pressure sensors monitoring system for hand gestures recognition[C]. 2020 IEEE Sensors, Rotterdam, 2020: 1-4.

    [13]

    CHU Xianzhi, LIU Jiang, SHIMAMOTO S. A sensor-based hand gesture recognition system for Japanese sign language[C]. 2021 IEEE 3rd Global Conference on Life Sciences and Technologies(LifeTech), Nara, 2021: 311-312.

    [14]

    YIN Kang, TANG Chengpei, ZHANG Xie, et al. Robust human activity recognition system with Wi-Fi using handcraft feature[C]. 2021 IEEE Symposium on Computers and Communications, Athens, 2021: 1-8.

    [15]

    YU Bohan,WANG Yuxiang,NIU Kai,et al. WiFi-sleep:sleep stage monitoring using commodity Wi-Fi devices[J]. IEEE Internet of Things Journal,2021,8(18):13900-13913. DOI: 10.1109/JIOT.2021.3068798

    [16]

    SOLIKHIN M,PRATAMA Y,PASARIBU P,et al. Analisis watermarking menggunakan metode discrete cosine transform (DCT) dan discrete fourier transform (DFT)[J]. Jurnal Sistem Cerdas,2022,5(3):155-170.

    [17]

    RAJASHEKHAR U,NEELAPPA D,RAJESH L. Electroencephalogram (EEG) signal classification for brain-computer interface using discrete wavelet transform (DWT)[J]. International Journal of Intelligent Unmanned Systems,2022,10(1):86-97. DOI: 10.1108/IJIUS-09-2020-0057

    [18]

    CAN C, KAYA Y, KILIÇ F. A deep convolutional neural network model for hand gesture recognition in 2D near-infrared images[J]. Biomedical Physics & Engineering Express, 2021, 7(5). DOI: 10.1088/2057-1976/ac0d91.

    [19]

    YU L, LI J, WANG T, et al. T2I-Net: time series classification via deep sequence-to-image transformation networks[C]. 2022 IEEE International Conference on Networking, Sensing and Control, Shanghai, 2022: 1-5.

    [20]

    MOGHADDAM M G, SHIREHJINI A A N, SHIRMOHAMMADI S. A WiFi-based system for recognizing fine-grained multiple-subject human activities[C]. 2022 IEEE International Instrumentation and Measurement Technology Conference, Ottawa, 2022: 1-6.

    [21]

    MEI Y, JIANG T, DING X, et al. WiWave: WiFi-based human activity recognition using the wavelet integrated CNN[C]. 2021 IEEE/CIC International Conference on Communications in China, Xiamen, 2021: 100-105.

    [22]

    MUAAZ M,CHELLI A,GERDES M W,et al. Wi-Sense:a passive human activity recognition system using Wi-Fi and convolutional neural network and its integration in health information systems[J]. Annals of Telecommunications,2022,77(3):163-175.

  • 期刊类型引用(3)

    1. 杨艺,杨艳磊,王田,王科平. 基于多重信息自注意力的综采工作面目标行为识别. 煤炭学报. 2025(02): 1425-1442 . 百度学术
    2. 苏晨阳,武文红,牛恒茂,石宝,郝旭,王嘉敏,高勒,汪维泰. 深度学习的工人多种不安全行为识别方法综述. 计算机工程与应用. 2024(05): 30-46 . 百度学术
    3. 权淑娟. 基于时空关系的井下安全生产AI图像识别系统的应用. 煤矿机电. 2023(02): 17-21 . 百度学术

    其他类型引用(2)

图(10)  /  表(4)
计量
  • 文章访问数:  228
  • HTML全文浏览量:  33
  • PDF下载量:  65
  • 被引次数: 5
出版历程
  • 收稿日期:  2022-12-05
  • 修回日期:  2023-03-08
  • 网络出版日期:  2023-03-26
  • 刊出日期:  2023-03-24

目录

/

返回文章
返回