地下矿山作业人员佩戴安全帽智能检测方法

杜青, 杨仕教, 郭钦鹏, 张焕宝, 王昱琛, 尹裕

杜青,杨仕教,郭钦鹏,等. 地下矿山作业人员佩戴安全帽智能检测方法[J]. 工矿自动化,2023,49(7):134-140. DOI: 10.13272/j.issn.1671-251x.2022090033
引用本文: 杜青,杨仕教,郭钦鹏,等. 地下矿山作业人员佩戴安全帽智能检测方法[J]. 工矿自动化,2023,49(7):134-140. DOI: 10.13272/j.issn.1671-251x.2022090033
DU Qing, YANG Shijiao, GUO Qinpeng, et al. Intelligent detection method of working personnel wearing safety helmets in underground mine[J]. Journal of Mine Automation,2023,49(7):134-140. DOI: 10.13272/j.issn.1671-251x.2022090033
Citation: DU Qing, YANG Shijiao, GUO Qinpeng, et al. Intelligent detection method of working personnel wearing safety helmets in underground mine[J]. Journal of Mine Automation,2023,49(7):134-140. DOI: 10.13272/j.issn.1671-251x.2022090033

地下矿山作业人员佩戴安全帽智能检测方法

基金项目: 湖南省研究生科研创新项目(CX20200916,QL20210216,QL20230233)。
详细信息
    作者简介:

    杜青(1999—),女,贵州普安人,博士研究生,研究方向为矿山智能检测,E-mail:19184747865@163.com

    通讯作者:

    杨仕教(1964—),男,湖南浏阳人,教授,博士,主要研究方向为矿业系统工程优化与工艺过程智能控制、图像机器识别,E-mail:649292197@qq.com

  • 中图分类号: TD67

Intelligent detection method of working personnel wearing safety helmets in underground mine

  • 摘要: 基于视觉图像方法是目前矿井人员佩戴安全帽智能检测的热点,但现有方法所用的地下矿山数据较少,安全帽特征分类不够精确。通过采集地下矿山采场、井巷等实际生产场景的图像,构建了矿山安全帽佩戴数据集——MHWD,并将安全帽佩戴情况进一步细分为正确佩戴、不规范佩戴和未佩戴3类。采用YOLOX算法进行人员佩戴安全帽检测,为了增强YOLOX提取全局特征的能力,引入注意力机制,即在YOLOX骨干网的空间金字塔池化瓶颈层嵌入有效通道注意力模块,在路径聚合特征金字塔网络每个上采样和下采样后添加卷积块注意力模块,由此构建了YOLOX−A模型。采用MHWD训练YOLOX−A模型并进行验证,结果表明,针对照度低、模糊、有人员遮挡的矿井图像,YOLOX−A模型能够准确识别人员佩戴安全帽情况,对不规范佩戴、正确佩戴和未佩戴安全帽3种分类结果的F1分数分别为0.86,0.92,0.89,平均精度分别为93.16%,95.76%,91.69%,平均精度均值为93.54%,整体F1分数较YOLOX模型提升4%,检测精度高于主流目标检测模型EfficientDet,YOLOv3,YOLOv4,YOLOv5,YOLOX。
    Abstract: Visual image-based methods are currently a hot topic in intelligent detection of mine personnel wearing safety helmets. However, existing methods use limited underground mining data and the classification of safety helmet features is not accurate enough. By collecting images of actual production scenes such as underground mining sites and roadways, a mining helmet wearing dataset (MHWD) is constructed. The helmet wearing situation is further divided into three categories: correct wearing, non-standard wearing, and non wearing. YOLOX algorithm is used to detect personnel wearing helmets. In order to enhance YOLOX's capability to extract global features, the attention mechanism is introduced. The effective channel attention module is embedded in the spatial pyramid pooling bottleneck layer of YOLOX's backbone network. The convolutional block attention module is added after each upsampling and downsampling of the path aggregation feature pyramid network, thus the YOLOX-A model is built. By using MHWD, the YOLOX-A model is trained and validated. The results show that the YOLOX-A model can accurately identify the wearing of safety helmets by personnel in mine images with low illumination, blurriness, and personnel obstruction. The F1 scores for the classification results of non-standard wearing, correct wearing, and non wearing safety helmets are 0.86, 0.92, and 0.89, respectively. The average precision is 93.16%, 95.76%, and 91.69%. The average precision mean is 93.54%. The overall F1 score is 4% higher than the YOLOX model. The detection precision is higher than the mainstream target detection models EfficientDet, YOLOv3, YOLOv4, YOLOv5 and YOLOX.
  • 在地下矿山生产中,对作业人员佩戴安全帽情况进行检测对保障其人身安全和生产安全具有重要意义[1]。目前矿山生产中的行为监测通常采用人工方式,调度室监控人员通过视频监控数据判断作业人员的不安全行为[2]。该方式费时费力,误检率高,且难以实现全程监控。因此,地下矿山作业人员不佩戴或不规范佩戴安全帽的情况仍时有发生。

    随着矿山智能化技术的不断发展,有学者对矿山作业人员佩戴安全帽智能检测进行了研究,其中以基于视觉图像的检测方法为热点[3-4]。李晓宇等[5]提出了一种基于超像素特征提取与SVM(Support Vector Machine,支持向量机)分类的矿井人员安全帽分割方法。毕林等[6]构建了3种不同深度的卷积神经网络,对矿山背景及矿工是否佩戴安全帽进行检测。仝泽友等[7]基于Inception-V3网络模型,实现矿工人脸识别及安全帽佩戴检测。上述方法较人工方式极大提高了检测效率,但由于所用的地下矿山数据较少,导致安全帽特征分类不够精确。

    近年来,深度学习算法在工业检测领域应用越来越广泛。其中,基于单阶段的YOLO系列算法[8-10]发展迅速,其检测速度快,对于小目标检测精度高,被许多学者用于工业现场施工环境下的作业人员佩戴安全帽检测研究中[11-15],为实现地下矿山环境下人员佩戴安全帽智能检测提供了参考。基于此,本文采用对小目标识别效果好的YOLOX算法[10]进行地下矿山作业人员佩戴安全帽智能检测。考虑YOLOX采用多层残差网络结构提取目标特征,过分关注特征图局部特征而忽略了全局特征信息,将AM(Attention Mechanism,注意力机制)引入YOLOX,以增强全局特征提取能力,由此构建了YOLOX−A模型。针对目前缺少适用矿山安全帽检测数据集的问题,通过采集地下矿山实际生产场景的图像,构建了MHWD(Mine Helmet Wearing Dataset,矿山安全帽佩戴数据集),其包含12个地下矿山不同场景中作业人员佩戴安全帽的图像,并对安全帽佩戴情况进行进一步细分。基于MHWD对YOLOX−A模型进行训练和验证,结果表明该模型能对地下矿山现场中不同场景与不同尺度的安全帽进行准确识别。

    地下矿山企业要求下井人员需将安全帽戴正,帽舌朝正前方;调节下颌调节器,使下颌带紧贴下颚,并携带好矿灯。作业人员佩戴安全帽检测通常分为佩戴与不佩戴两类,难以满足实际检测需求。考虑目前大多数地下矿山为方便下井人员作业,将矿灯安置在安全帽上,因此将人员佩戴安全帽图像划分为正确佩戴、不规范佩戴(佩戴未携带矿灯的安全帽)和未佩戴3种,如图1所示。

    图  1  地下矿山作业人员佩戴安全帽图像分类
    Figure  1.  Image classification of working personnel wearing safety helmets in underground mine

    基于深度学习的目标检测模型前期需要大量的标签样本,以提升模型的准确度和泛化能力。SHWD(Safety Helmet Wearing Dataset)[16]是目前最大的开源安全帽检测数据集,通过网络爬虫收集了部分露天工地场景下工人佩戴安全帽的图像,以及教室监控中未佩戴安全帽人员的图像,共7 581张。直接将该数据集用于地下矿山作业人员佩戴安全帽检测存在2个问题:① 未考虑矿山井下弱光环境;② 缺乏不规范佩戴安全帽数据。

    针对上述问题,采集湖南省长沙市、衡阳市、娄底市等12个矿山调度室的实际监控视频及现场拍摄的作业人员佩戴安全帽图像。监控视频每10 s剪切1帧并筛选。考虑矿井中未佩戴安全帽的图像很少,通过网络爬虫方式获取部分适用于井下环境安全帽检测的数据,并从SHWD中选取部分适合矿山检测环境的人员未佩戴安全帽图像。

    MHWD中数据涵盖矿山采场、井巷等复杂场景,以及作业人员正确佩戴、不规范佩戴、未佩戴安全帽等情况,共有8 151张图像,含5 000张矿山现场采集图像、3 151张网络爬虫获取图像和SHWD图像。采用图像标注软件LabelImage进行标签分类,如图2所示。正确佩戴安全帽图像采用红色框,标记为WithHelmet;不规范佩戴安全帽图像采用绿色框,标记为IrregularWearing;未佩戴安全帽图像采用蓝色框,标记为Person。

    图  2  MHWD标签分类
    Figure  2.  Label classification of mine helmet wearing dataset(MHWD)

    MHWD标签分类结果:WithHelmet标签6 590个,IrregularWearing标签3 224个,IrregularWearing标签99 483个。将MHWD数据按9∶1随机划分为训练集和验证集,并使用mosaic方法进行扩充,以增强模型泛化能力。

    YOLOX网络由Darknet−53[17] Backbone(主干网络)、PAFPN(Path Aggregation Feature Pyramid Network,路径聚合特征金字塔网络)[18]及YoloHead[10]组成。YOLOX−A基于YOLOX网络结构,在Backbone的SPPB(Spatial Pyramid Pooling BottleNeck,空间金字塔池化瓶颈)[19]层嵌入ECA(Efficient Channel Attention,有效通道注意力)模块[20],在PAFPN中每个上采样(UpSample)和下采样(DownSample)后添加CBAM(Convolutional Block Attention Module,卷积块注意力模块)[21],如图3所示。YOLOX−A通过融合轻量级AM模块,加强网络对全局信息的关注度,以增强特征提取能力。

    图  3  YOLOX−A模型结构
    Figure  3.  YOLOX-A model structure

    YOLOX的Backbone使用SPPB提取特征。SPPB采用1×1卷积进行通道数缩减,再用3×3卷积进行通道数扩张,以降低参数量。卷积核通常是局部的,忽略了特征图中部分全局信息,导致检测结果不理想。而AM可通过权值分配和信息过滤实现网络自适应,增强重要特征信息,从而从海量的特征信息中提取出对网络训练更有价值的信息。因此,在SPPB中嵌入ECA模块,通过全局平均池化得到特征图聚合特征,以增强全局特征信息。改进前后的SPPB结构如图4所示。

    ECA是一种用于提升深度卷积网络性能的超轻注意力模块,通过执行大小为$ K $的快速一维卷积生成通道权重。

    $$ K={\left|\frac{{{{\rm{log}}}}_{2}C}{\gamma }+\frac{b}{\gamma }\right|}_{{\rm{odd}}} $$ (1)

    式中:$ C $为输入特征图的通道数;$ \mathrm{\gamma },{b} $为常数,设置$ \mathrm{\gamma } $=2,$ {b} $=1;$ {\left|·\right|}_{{\rm{odd}}} $为取最近的奇数。

    图  4  改进前后的SPPB结构
    Figure  4.  SPPB structure before and after improvement

    YOLOX模型Backbone的Dark3,Dark4,Dark5输出的多尺度特征进入PAFPN融合。为保留更多的高级语义信息,在PAFPN的每个上采样、下采样之后加入CBAM,从而对重要的语义信息给予更多关注,如图5所示。

    图  5  融合CBAM的PAFPN
    Figure  5.  PAFPN integrating CBAM

    CBAM包含通道注意力模块和空间注意力模块,可更好地选择对当前任务目标更关键的信息,使得卷积提取的特征相关性更强,捕获的高级语义信息更丰富,从而更好地识别目标。

    $$ {\boldsymbol{I}}{{'}}={{\boldsymbol{M}}}_{{\rm{c}}}\otimes {\boldsymbol{I}} $$ (2)
    $$ {{\boldsymbol{I}}}{{'}{'}}={{\boldsymbol{M}}}_{{\rm{s}}}\otimes {{\boldsymbol{I}}}{{'}} $$ (3)

    式中:${{\boldsymbol{I}}}{{'}}$为经通道注意力模块处理的特征图;Mc为通道注意力模块,${{{{\boldsymbol{M}}}}}_{{\rm{c}}}\in {{\bf{R}}}^{C \times 1 \times 1}$;I为输入特征图,${\boldsymbol{I}}\in {{\bf{R}}}^{C \times H \times W}$,HW分别为输入特征图的高度和宽度;$ {{\boldsymbol{I}}}{{'}{'}} $为CBAM输出特征图;Ms为空间注意力模块,${{\boldsymbol{M}}}_{{\rm{s}}}\in {{\bf{R}}}^{1\times H \times W}$。

    实验基于Windows10系统、Pytorch深度学习框架;处理器为Intel(R) Core(TM) i5−10400F CPU @ 2.90 GHz,16 GiB内存;GPU为NVIDIA GeForce RTX 1650,显存为4 GiB。

    实验数据集为MHWD,输入图像尺寸为640 × 640。模型训练100个epoch,batch-size设置为2,使用yolox_s.pth权重文件。模型参数由SGD优化器更新,初始学习率设置为 0.01,并通过余弦退火方法减小学习率。

    采用目标检测中常用的AP(Average Precision,平均精度)、mAP(mean Average Precision,平均精度均值)和$ F1 $分数作为模型的评价指标。

    分别对YOLOX,YOLOX−A模型进行训练,之后设置置信度阈值0.5过滤掉错误检测框,采用$ F1 $分数评价模型性能,结果如图6所示。可看出YOLOX−A模型针对IrregularWearing类检测的F1分数较YOLOX模型提升了3%,WithHelmet类提升了1%,Person类保持不变,整体提升了4%。

    图  6  YOLOX模型与YOLOX−A模型训练结果的F1分数对比
    Figure  6.  F1 score comparison of training result between YOLOX model and YOLOX-A model

    采用MHWD对主流目标检测算法EfficientDet,YOLOv3,YOLOv4,YOLOv5,YOLOX进行训练,并与YOLOX−A模型的检测结果进行对比,见表1。可看出YOLOX−A模型对IrregularWearing,WithHelmet,Person类检测的AP分别为93.16%,95.76%,91.69%,mAP为93.54%,均高于其他检测模型。

    表  1  不同目标检测模型在MHWD上的检测指标
    Table  1.  Detection indexes of different target detection models on MHWD %
    模型APmAP
    IrregularWearingWithHelmetPerson
    EfficientDet83.0890.8037.5370.47
    YOLOv374.8789.2179.1281.06
    YOLOv475.3689.2380.6381.74
    YOLOv577.390.5387.2285.02
    YOLOX91.6795.4892.2893.15
    YOLOX−A93.1695.7691.6993.54
    下载: 导出CSV 
    | 显示表格

    为了检验改进模块的有效性,在MHWD上进行消融实验,结果见表2。可看出YOLOX模型依次加入CBAM和ECA后,检测结果的mAP分别较前一模型提升了0.12%和0.27%,验证了CBAM和ECA均能提高人员佩戴安全帽检测精度。

    表  2  消融实验结果
    Table  2.  Ablation experiment results
    YOLOXCBAMECAmAP/%
    93.15
    93.27
    93.54
    下载: 导出CSV 
    | 显示表格

    分别采用YOLOX模型与YOLOX−A模型识别图像中作业人员佩戴安全帽情况,热力图可视化对比如图7所示。红色表示网络提取特征时需高度注意的区域,颜色越深表示显著性越高。可看出YOLOX−A模型对安全帽的目标特征更加集中且敏感度更高。

    图  7  YOLOX模型与YOLOX−A模型热力图可视化对比
    Figure  7.  Visualization comparison of thermal maps between YOLOX model and YOLOX-A model

    YOLOX−A模型对作业人员佩戴安全帽的识别结果如图8所示。可看出YOLOX−A模型针对矿井图像照度低、模糊、有障碍物遮挡等情况,均能较准确地检测出安全帽,但对于图像6中安全帽目标较小且存在反光的情况,YOLOX−A模型将不规范佩戴安全帽误检为正确佩戴。总体上,采用MHWD训练的YOLOX−A模型基本满足地下矿山工作人员佩戴安全帽自动检测要求。

    图  8  YOLOX−A模型对作业人员佩戴安全帽识别结果
    Figure  8.  Identification results of working personnel wearing safety helmets by using YOLOX-A model

    分别采用EfficientDet,YOLOv3,YOLOv4,YOLOv5,YOLOX,YOLOX−A模型对地下矿山复杂场景下的作业人员佩戴安全帽图像进行检测,结果如图9所示。可看出在低照度环境且存在人员遮挡条件下,EfficientDet,YOLOv3,YOLOv4模型对于小目标存在漏检情况,YOLOv5,YOLOX模型能检测出微光下的安全帽,但对于更弱光照条件下的安全帽无法完整检测,而YOLOX−A模型能准确检测出人员佩戴安全帽情况。

    图  9  不同目标检测模型对作业人员佩戴安全帽的检测结果
    Figure  9.  Identification results of working personnel wearing safety helmets by using different target detection models

    1) 提出了更适用于地下矿山作业人员佩戴安全帽检测的数据集−MHWD。该数据集全面扩充了地下矿山采场、井巷等复杂场景,以及作业人员非规范佩戴安全帽分类标签。

    2) 将ECA和CBAM融合策略引入YOLOX模型,建立YOLOX−A模型,增强了对特征图像全局信息和高级语义信息的抓取效力。

    3) 基于MHWD训练的YOLOX−A模型对IrregularWearing,WithHelmet,Person 3种分类的AP分别为93.16%,95.76%,91.69%,mAP为93.54%,均高于主流的EfficientDet,YOLOv3,YOLOv4,YOLOv5,YOLOX模型,且针对低照度、模糊、有人员遮挡的矿井图像,能够准确识别人员佩戴安全帽情况,满足地下矿山作业人员佩戴安全帽智能检测要求。

  • 图  1   地下矿山作业人员佩戴安全帽图像分类

    Figure  1.   Image classification of working personnel wearing safety helmets in underground mine

    图  2   MHWD标签分类

    Figure  2.   Label classification of mine helmet wearing dataset(MHWD)

    图  3   YOLOX−A模型结构

    Figure  3.   YOLOX-A model structure

    图  4   改进前后的SPPB结构

    Figure  4.   SPPB structure before and after improvement

    图  5   融合CBAM的PAFPN

    Figure  5.   PAFPN integrating CBAM

    图  6   YOLOX模型与YOLOX−A模型训练结果的F1分数对比

    Figure  6.   F1 score comparison of training result between YOLOX model and YOLOX-A model

    图  7   YOLOX模型与YOLOX−A模型热力图可视化对比

    Figure  7.   Visualization comparison of thermal maps between YOLOX model and YOLOX-A model

    图  8   YOLOX−A模型对作业人员佩戴安全帽识别结果

    Figure  8.   Identification results of working personnel wearing safety helmets by using YOLOX-A model

    图  9   不同目标检测模型对作业人员佩戴安全帽的检测结果

    Figure  9.   Identification results of working personnel wearing safety helmets by using different target detection models

    表  1   不同目标检测模型在MHWD上的检测指标

    Table  1   Detection indexes of different target detection models on MHWD %

    模型APmAP
    IrregularWearingWithHelmetPerson
    EfficientDet83.0890.8037.5370.47
    YOLOv374.8789.2179.1281.06
    YOLOv475.3689.2380.6381.74
    YOLOv577.390.5387.2285.02
    YOLOX91.6795.4892.2893.15
    YOLOX−A93.1695.7691.6993.54
    下载: 导出CSV

    表  2   消融实验结果

    Table  2   Ablation experiment results

    YOLOXCBAMECAmAP/%
    93.15
    93.27
    93.54
    下载: 导出CSV
  • [1] 李超. 现代化矿山救护技术装备问题分析[J]. 中国金属通报,2021(11):116-117.

    LI Chao. Analysis of modern mine rescue technology and equipment[J]. China Metal Bulletin,2021(11):116-117.

    [2] 陈杰. 智慧矿山安全防控多系统井下融合与应急联动技术研究[J]. 煤矿安全,2022,53(5):99-105.

    CHEN Jie. Research on multi-system underground integration and emergency linkage technology for smart mine safety prevention and control[J]. Safety in Coal Mines,2022,53(5):99-105.

    [3] 张立艺,武文红,牛恒茂,等. 深度学习中的安全帽检测算法应用研究综述[J]. 计算机工程与应用,2022,58(16):1-17. DOI: 10.3778/j.issn.1002-8331.2203-0580

    ZHANG Liyi,WU Wenhong,NIU Hengmao,et al. Summary of application research on helmet detection algorithm based on deep learning[J]. Computer Engineering and Applications,2022,58(16):1-17. DOI: 10.3778/j.issn.1002-8331.2203-0580

    [4] 孙国栋,李超,张航. 融合自注意力机制的安全帽佩戴检测方法[J]. 计算机工程与应用,2022,58(20):300-304. DOI: 10.3778/j.issn.1002-8331.2103-0372

    SUN Guodong,LI Chao,ZHANG Hang. Safety helmet wearing detection method fused with self-attention mechanism[J]. Computer Engineering and Applications,2022,58(20):300-304. DOI: 10.3778/j.issn.1002-8331.2103-0372

    [5] 李晓宇,陈伟,杨维,等. 基于超像素特征与SVM分类的人员安全帽分割方法[J]. 煤炭学报,2021,46(6):2009-2022.

    LI Xiaoyu,CHEN Wei,YANG Wei,et al. Segmentation method for personnel safety helmet based on super-pixel features and SVM classification[J]. Journal of China Coal Society,2021,46(6):2009-2022.

    [6] 毕林,谢伟,崔君. 基于卷积神经网络的矿工安全帽佩戴识别研究[J]. 黄金科学技术,2017,25(4):73-80. DOI: 10.11872/j.issn.1005-2518.2017.04.073

    BI Lin,XIE Wei,CUI Jun. Identification research on the miner's safety helmet wear based on convolutional neural network[J]. Gold Science and Technology,2017,25(4):73-80. DOI: 10.11872/j.issn.1005-2518.2017.04.073

    [7] 仝泽友,冯仕民,侯晓晴,等. 基于安全帽佩戴检测的矿山人员违规行为研究[J]. 电子科技,2019,32(9):26-31. DOI: 10.16180/j.cnki.issn1007-7820.2019.09.006

    TONG Zeyou,FENG Shimin,HOU Xiaoqing,et al. Recognition of underground miners' rule-violated behavior based on safety helmet detection[J]. Electronic Science and Technology,2019,32(9):26-31. DOI: 10.16180/j.cnki.issn1007-7820.2019.09.006

    [8]

    REDMON J, FARHADI A. Yolov3: an incremental improvement[EB/OL]. [2022-09-03]. https://arxiv.org/abs/1804.02767.

    [9]

    BOCHKOVSKI A, WANG C Y, LIAO H Y M. Yolov4: optimal speed and accuracy of object detection[EB/OL]. [2022-09-03]. https://arxiv.org/abs/2004.10934.

    [10]

    GE Zheng, LIU Songtao, WANG Feng, et al. Yolox: exceeding YOLO series in 2021[EB/OL]. [2022-09-03]. https://arxiv.org/abs/2107.08430.

    [11]

    JAMTSHO Y,RIYAMONGKOL P,WARANUSAST R. Real-time license plate detection for non-helmeted motorcyclist using YOLO[J]. ICT Express,2021,7(1):104-109. DOI: 10.1016/j.icte.2020.07.008

    [12]

    SRIDHAR P, JAGADEESWARI M, SRI S H, et al. Helmet violation detection using YOLO v2 deep learning framework[C]. The 6th International Conference on Trends in Electronics and Informatics, Tirunelveli, 2022: 1207-1212.

    [13]

    CHEN Meixi, KONG Rong, ZHU Jianming, et al. Application research of safety helmet detection based on low computing power platform using YOLO v5[C]. International Conference on Adaptive and Intelligent Systems, Suzhou, 2022: 107-117.

    [14]

    HE Zhiwei, WU Fan, GAO Mingyu, et al. Helmet detection based on improved YOLO v3 deep model[C]. IEEE 16th International Conference on Networking, Sensing and Control, Alberta, 2019: 363-368.

    [15]

    XIE Wenqin,XIE Lei,ZHANG Linzhi,et al. Toward efficient safety helmet detection based on Yolov5 with hierarchical positive sample selection and box density filtering[J]. IEEE Transactions on Instrumentation and Measurement,2022,71:1-14.

    [16]

    SHIRMOHAMMADI S,FERRERO A. Camera as the instrument:the rising trend of vision based measurement[J]. IEEE Instrumentation & Measurement Magazine,2014,17(3):41-47.

    [17]

    WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, 2020: 390-391.

    [18]

    LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Honolulu, 2017: 2117-2125.

    [19]

    HE Kaiming,ZHANG Xiayu,REN Shaoqing,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916. DOI: 10.1109/TPAMI.2015.2389824

    [20]

    WANG Qilong, WU Banggu, ZHU Pengfei, et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Seattle, 2020: 11534-11542.

    [21]

    WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module[C]. Proceedings of the European Conference on Computer Vision, Munich, 2018: 3-19.

  • 期刊类型引用(7)

    1. 柳小波,范立鹏,秦丽杰,王连成,张兴帆. 机器视觉技术在矿山行业的应用现状与展望. 有色金属(矿山部分). 2025(02): 1-15 . 百度学术
    2. 王新良,王璐莹. 特征增强的低照度爆破现场安全帽检测算法. 计算机工程. 2025(03): 252-260 . 百度学术
    3. 柏跃屹,华心祝. 基于轻量化YOLOv7的井下高压场景安全识别研究. 煤炭工程. 2024(04): 157-163 . 百度学术
    4. 韩忠利. 基于卷积神经网络的矿用安全帽佩戴检测. 工矿自动化. 2024(S1): 82-87 . 本站查看
    5. 张婧,冯莹莹,李洪安,杜思哲,莫金明. 煤矿工作面喷雾除尘场景下的安全帽识别算法. 矿业安全与环保. 2024(04): 9-16 . 百度学术
    6. 齐瑞洁,袁玉英,孙立云,乔世超. 基于改进YOLOv8n的施工现场安全帽检测算法. 电子测量技术. 2024(13): 100-109 . 百度学术
    7. 杨志方. 基于雷达与视觉融合的双模态煤矿井下环境感知技术. 工矿自动化. 2023(11): 67-75 . 本站查看

    其他类型引用(0)

图(9)  /  表(2)
计量
  • 文章访问数:  464
  • HTML全文浏览量:  130
  • PDF下载量:  58
  • 被引次数: 7
出版历程
  • 收稿日期:  2022-09-06
  • 修回日期:  2023-06-30
  • 网络出版日期:  2023-08-02
  • 刊出日期:  2023-07-24

目录

/

返回文章
返回