基于采掘工作面瓦斯涌出特征的瓦斯灾害精准预警系统

褚新龙, 王磊, 钟国

褚新龙, 王磊, 钟国. 基于采掘工作面瓦斯涌出特征的瓦斯灾害精准预警系统[J]. 工矿自动化, 2023, 49(S1): 39-43,55.
引用本文: 褚新龙, 王磊, 钟国. 基于采掘工作面瓦斯涌出特征的瓦斯灾害精准预警系统[J]. 工矿自动化, 2023, 49(S1): 39-43,55.
CHU Xinlong, WANG Lei, ZHONG Guo. Accurate early warning system of gas disaster based on gas emission characteristics in coal mining and heading face[J]. Journal of Mine Automation, 2023, 49(S1): 39-43,55.
Citation: CHU Xinlong, WANG Lei, ZHONG Guo. Accurate early warning system of gas disaster based on gas emission characteristics in coal mining and heading face[J]. Journal of Mine Automation, 2023, 49(S1): 39-43,55.

基于采掘工作面瓦斯涌出特征的瓦斯灾害精准预警系统

详细信息
    作者简介:

    褚新龙(1977-),男,甘肃张掖人,工程师,现主要从事煤矿"一通三防"研究工作,E-mail:1134203205@qq.com。

  • 中图分类号: TD712

Accurate early warning system of gas disaster based on gas emission characteristics in coal mining and heading face

  • 摘要: 乌东煤矿为近直立特厚煤层、分层放顶煤开采方式,工作面瓦斯涌出来源及特征较为复杂,当前采取的瓦斯防治措施虽有效降低了回采期间工作面瓦斯涌出异常风险,但其经济性、合理性、安全性无法统筹兼顾,在瓦斯灾害风险管控的时空衔接上缺乏瓦斯涌出异常预警机制及配套技术手段。为了填补乌东煤矿瓦斯灾害预警空白,基于对乌东煤矿井下工作面空气瓦斯来源、采掘工作面瓦斯涌出特征的分析,将综放工作面瓦斯浓度超阈值预警模块与掘进工作面瓦斯涌出特征预警模块相结合,构建了乌东煤矿采掘工作面瓦斯灾害精准预警模型。在此基础上,采用B/S架构开发模式,基于矿井工业环网设计开发了乌东煤矿瓦斯灾害精准预警系统,并在井下各主要工作面应用。考察结果表明,该系统运行稳定,预警准确率较高。
  • 选煤厂安放刮板输送机、振动筛等大型机械设备的区域容易发生人员安全事故,为选煤厂危险区域。尽管在选煤厂危险区域设置了安全隔栏、警示牌等,但在实际生产过程中依然存在人员违规进入危险区域的行为。为保障人员安全,在选煤厂危险区域会安装监控系统,但需要专职人员值守,存在因值班人员疲劳而忽视现场异常工况的现象[1]

    为提高安全管理水平,研究人员提出使用目标检测算法检测设备运行时是否有进入危险区域的人员,辅助值班人员对危险区域进行监测。张圣强等[2]采用背景减除法分割运动目标区域,再结合人体的形状信息进行验证,实现了对人员的检测;陈海龙[3]将背景减除法作为选煤厂巡检机器人目标检测方法。但由于选煤厂光照不均、背景复杂,尤其在人员之间发生遮挡时会使各个目标区域连通在一起,造成漏检率偏高的问题。林娅静[4]通过基于混合高斯模型的背景减除法进行运动目标检测,再结合方向梯度直方图(Histogram of Oriented Gradient, HOG)和支持向量机(Support Vector Machine,SVM)进行人员识别,一定程度上提高了检测准确率,但检测效率低。

    近年来,基于深度学习的目标检测算法发展迅速,其鲁棒性好、泛化能力强,但计算量大。为达到实时检测效果,学者们提出了轻量化目标检测模型,但现有的轻量化目标检测模型是面向公开数据集设计的,需要兼顾多个类别目标的检测效果,缺乏对特定类型目标检测性能的优化。考虑到选煤厂在生产过程中产生的粉尘会覆盖员工工作服,且喷雾降尘设备产生的雾气会导致监控画面对比度低,给人员全身与生产环境背景颜色的区分带来困难,而人员头部特征相对易于辨识,人头在监控视角下被遮挡的可能性较低,所以相对于人员全身检测,人头检测更加方便有效[5]。大部分人头属于小尺寸目标,目前的轻量化目标检测模型在特征提取时的降采样率较大,信息损失多,因此对人头目标的检测能力有限。针对该问题,本文提出了轻量化人员检测模型CenterNet−GhostNet。该模型以CenterNet[6]网络为基础框架,将轻量化网络GhostNet[7]与特征金字塔(Feature Pyramid Network,FPN)[8]相结合作为特征提取网络,在提取高层语义特征的同时保留细节信息;使用3个独立卷积分支对输出特征图进行解码计算,以充分利用特征图的细节信息,从而在人头目标检测上达到较高的准确率。

    CenterNet−GhostNet模型框架如图1所示,总体上可分为特征提取、特征图解码计算和预测输出3个部分。

    图  1  CenterNet−GhostNet模型框架
    Figure  1.  Framework of CenterNet-GhostNet model

    (1) 特征提取。将输入图像通过特征提取网络映射成包含原图像语义信息的输出特征图,输出特征图的分辨率为128×128,为输入图像的1/4。

    (2) 特征图解码计算。为充分利用高分辨率特征图的细节信息,输出特征图经过3个相互独立的卷积操作后,分别生成关键点热图、偏移量热图及尺寸热图,3个热图的尺寸相同。关键点热图中每个点的值代表该点作为目标中心点(也被称为关键点)的置信度;偏移量代表关键点对应的坐标偏移量,是关键点映射回原图时由于分辨率不同产生的;尺寸热图包含目标边界框尺寸大小,用于后续生成目标边界框。

    (3) 预测输出。首先,在关键点热图上进行3×3最大池化操作,得到每个3×3区域中置信度最大的关键点,将筛选出的关键点作为目标在关键点热图上的中心点,然后使用偏移量调整中心点位置,得到输入图像中精确的目标中心点,最后根据目标边界框尺寸绘制目标边界框。

    为了在保证精度的前提下提升模型运行效率,降低硬件成本,设计了基于GhostNet和FPN的轻量化特征提取网络,结构如图2所示。GhostNet对输入图像进行特征提取,FPN对GhostNet提取的各层特征进行融合。

    图  2  基于GhostNet和FPN的特征提取网络结构
    Figure  2.  Feature extraction network structure based on GhostNet and feature pyramid network

    GhostNet具有运行快、准确率高等优点,其参数见表1。G−bneck是GhostNet中被称为瓶颈的结构,如图3所示。步长为1的G−bneck由Ghost模块、批标准化层叠加而成,且输入和输出之间有1条跳跃连接通道。步长为2的G−bneck比步长为1的G−bneck多了1个步长为2的深度可分离卷积层[9]和1个批标准化层。

    表  1  GhostNet参数
    Table  1.  Parameters of GhostNet
    输入尺寸结构步长
    512×512×3Conv2d(3×3)2
    256×256×16G−bneck×21,2
    128×128×24G−bneck×21,2
    64×64×40G−bneck×21,2
    32×32×80G−bneck×41,1,1,1
    32×32×112G−bneck×21,2
    16×16×160G−bneck×41,1,1,1
    16×16×160Conv2d(3×3)1
    下载: 导出CSV 
    | 显示表格
    图  3  G−bneck结构
    Figure  3.  Structure of G-bneck

    G−bneck中的Ghost模块(图4)是GhostNet提升精度的关键,其用计算量很少的线性运算代替部分卷积运算,将得到的冗余特征图与本征特征图进行拼接,提高网络的特征表达能力。

    图  4  Ghost模块
    Figure  4.  Ghost module

    FPN融合了GhostNet提取的16×16,32×32,64×64,128×128这4个不同分辨率的特征图中信息,一方面融合了高层语义特征,提供了全局的情景信息,另一方面保留了丰富的细节信息,能够提高模型对小尺寸目标的检测能力。特征融合的方式为较高分辨率特征图经过步长为1的1×1卷积运算后,与经过2倍上采样的较低分辨率特征图逐元素相加。本文使用卷积核大小为3×3、步长为1的可形变卷积[10]与卷积核大小为3×3、步长为1的转置卷积串联的卷积操作来代替FPN中常用的双线性差值操作[11],使FPN在融合特征时能够自适应地突出重要特征,减少无效信息的干扰[12]

    CenterNet−GhostNet模型的损失函数Ldet由关键点置信度损失函数Lk、偏移量损失函数Loff和目标边界框尺寸损失函数Lsize组成。

    $$ \begin{array}{c}{L}_{\mathrm{d}\mathrm{e}\mathrm{t}}={L}_{\mathrm{k}}+{{\lambda }_{\mathrm{o}\mathrm{f}\mathrm{f}}L}_{\mathrm{o}\mathrm{f}\mathrm{f}}+{\lambda }_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}{L}_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}\end{array} $$ (1)

    式中λoffλsize分别为LoffLsize的调节系数。

    计算关键点置信度的损失需要根据训练样本中目标的真实位置生成监督信号,即生成一个跟关键点热图尺寸相同的标签热图,标签热图中每个点的值与关键点热图中每个点的置信度一一对应,代表了该点是关键点的可能性( 即关键点置信度)。训练样本原图中标注的目标边界框中心作为目标的真实关键点p,其在下采样倍数为R的标签热图上对应的关键点$ \tilde p=\left\lfloor {p/R} \right\rfloor $

    标签热图中关键点置信度$Y_{\tilde p} $以关键点$ \tilde p $为中心,呈高斯分布。

    $$ \begin{array}{c}{Y_{\tilde p}}={\rm{exp}}\left[-\dfrac{{\left(x-{x}_{\tilde p}\right)}^{2}+{\left(y-{y}_{\tilde p}\right)}^{2}}{2{\sigma }^{2}}\right]\end{array} $$ (2)

    式中:(xy)为标签热图上点的坐标;$ ({x}_{\tilde p},{y}_{\tilde p}) $为关键点$ \tilde p $的坐标;σ为与目标边界框尺寸相关的自适应标准差。

    关键点置信度损失函数Lk为基于Focal Loss[12]的变体:

    $${{L}_{\text{k}}}=\left\{ \begin{matrix} -\dfrac{1}{N}\underset{\tilde{p}}{\mathop \displaystyle \sum }\,{{( 1-{\hat{Y}_{\tilde p}} )}^{\alpha }}\text{lo}{{\text{g}}_{2}} {\hat{Y}_{\tilde p}} ~~~~~~~~~~~~~~~~~~~{Y_{\tilde p}}=1 \\ -\dfrac{1}{N}\underset{\tilde{p}}{\mathop \displaystyle \sum }\,{{( 1-{Y_{\tilde p}} )}^{\beta }}{{ {\hat{Y}_{\tilde p}} }^{ \alpha }}\text{lo}{{\text{g}}_{2}}( 1-{\hat{Y}_{\tilde p}} )~~~~~其他 \\ \end{matrix} \right.$$ (3)

    式中:N为标签热图中真实关键点个数;$\hat{Y}_{\tilde p} $为标签热图中关键点置信度预测值;αβ为超参数,本文取α=2,β=4。

    由于关键点热图与原图分辨率不同,将关键点从关键点热图映射回原图时会存在偏移,偏移量损失函数为

    $$ \begin{array}{c}{L}_{\mathrm{o}\mathrm{f}\mathrm{f}}=\dfrac{1}{N}\displaystyle \sum _{\tilde p}\left|{\hat{O}}_{\tilde p}-{O}_{\tilde p}\right|\end{array} $$ (4)

    式中:$ {\hat{O}}_{\tilde p} $为关键点$ \tilde p $的偏移量预测值;$ {O}_{\tilde p} $为关键点$ \tilde p $的偏移量真实值,$ {O}_{\tilde p}=p/R-\tilde p $

    目标边界框尺寸损失函数为

    $$ \begin{array}{c}{L}_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}=\dfrac{1}{N}\displaystyle \sum _{\tilde p}\left|{\hat{S}_{\tilde p}}-{S_{\tilde p}}\right|\end{array} $$ (5)

    式中:${\hat S_{\tilde p}} $为关键点$\tilde p $对应的目标边界框尺寸预测值;$S_{\tilde p} $为关键点$\tilde p $对应的目标边界框尺寸真实值。

    通过截取选煤厂监控视频帧,以及在自采集图像中随机添加高斯、椒盐噪声和降低对比度来模拟选煤厂监控视频图像,共采集4 096张图像样本。使用LabelImg工具进行图像标注,标注格式为Pascal VOC[13]。标注的人头样本个数为13 248,其中佩戴安全帽的人头样本个数为7 138,未佩戴安全帽的人头样本个数为6 110。图像样本按照8∶1∶1的比例划分为训练集、验证集和测试集。

    模型训练使用Intel Core i9−9900KF CPU,NVIDIA RTX2080Ti GPU等作为硬件平台。实验环境:Ubuntu 20.04 LTS;CUDA 11.0;cuDNN 8.5.0;PyTorch 1.7;Python 3.6。

    CenterNet−GhostNet模型训练参数:轮数为140;批尺寸为32;优化器为Adam;1—89,90—119,120—140轮的学习率分别为5×10−4,5×10−5,5×10−6;输入图像尺寸为512×512。

    为加快模型收敛速度,GhostNet在训练前载入在ImageNet数据集上的预训练权重。此外,为提高模型泛化能力,CenterNet−GhostNet在训练时采用Mosaic数据扩增[14]和色彩抖动作为在线数据增强方法来扩充数据集,能够起到丰富背景和提升小目标检测性能的作用。

    为验证CenterNet−GhostNet模型的优越性,与CenterNet−Res18模型( 以CenterNet为基础框架并使用ResNet−18作为特征提取网络的轻量化模型)进行对比,检测结果如图5图6所示。目标边界框的颜色代表目标类别,蓝色代表未佩戴安全帽的人员头部,红色表示已佩戴安全帽的人员头部;目标边界框上方的数字代表目标的类别置信度。

    图  5  CenterNet−GhostNet模型检测结果
    Figure  5.  Detection results of CenterNet-GhostNet model
    图  6  CenterNet−Res18模型检测结果
    Figure  6.  Detection results of CenterNet-Res18 model

    对比图5图6可看出:对图像1的检测中,CenterNet−GhostNet模型不仅检测出所有人头目标,且正确区分了目标类别;对图像2的检测中,2个模型均正确检测出目标,但CenterNet−GhostNet模型的目标边界框位置更精准,类别置信度更高;对图像3的检测中,CenterNet−Res18模型存在漏检,而CenterNet−GhostNet模型正确检测出所有人头目标。

    CenterNet−GhostNet模型与常见轻量化目标检测模型YOLOv4 Tiny、SSD−MobileNet及CenterNet−Res18的客观评价指标对比见表2。使用平均精度均值( Mean Average Precision,mAP)衡量目标检测精度,每秒传输帧数(Frames Per Second,FPS)衡量目标检测速度。

    表  2  不同模型检测精度和检测速度对比
    Table  2.  Comparison of detection accuracy and detection speed among different models
    模型mAP/%FPS/(帧·s−1
    佩戴安全帽未佩戴安全帽
    SSD−MobileNet87.183.3167
    YOLOv4 Tiny91.589.7117
    CenterNet−Res1888.685.1155
    CenterNet−GhostNet93.791.7146
    下载: 导出CSV 
    | 显示表格

    表2可看出,CenterNet−GhostNet模型检测速度相较于SSD−MobileNet和CenterNet−Res18模型略低,但对两类(佩戴安全帽和未佩戴安全帽)人头样本的检测精度均最高。

    为实现CenterNet−GhostNet模型在选煤厂危险区域人员检测中的应用,将其部署到NVIDIA Jetson Nano上。模型部署步骤:① 将CenterNet−GhostNet模型导出为ONNX文件。② 受制于NVIDIA Jetson Nano显存( 2 GB)和图像分辨率( 512×512),设置批尺寸为1,选择FP16作为模型部署推理精度,以保证实时性。③ 将模型转换为TensorRT工程文件,使用OpenCV读取并处理视频,调用TensorRT工程文件执行推理。

    NVIDIA Jetson Nano配合监控摄像机和报警器进行选煤厂危险区域人员检测,布置如图7所示。监控摄像机连接在NVIDIA Jetson Nano的CSI接口,NVIDIA Jetson Nano对视频进行处理后,通过GPIO接口发送指令控制报警器提醒现场工作人员。

    图  7  选煤厂危险区域人员检测布置
    Figure  7.  Personnel detection arrangement in dangerous area of coal preparation plant

    CenterNet−GhostNet模型在NVIDIA Jetson Nano上单帧检测耗时67 ms,表明该模型能够满足实时检测的要求。

    (1) 针对选煤厂环境下人员全身目标检测因粉尘、雾气干扰难以准确与背景区分的问题,提出使用人员头部检测来代替人员全身目标检测,以减少选煤厂环境因素的影响。

    (2) 以CenterNet网络为基础框架,将GhostNet与FPN相结合作为特征提取网络,构建了CenterNet−GhostNet模型来进行人员头部检测。

    (3) 在自建的选煤厂人员数据集上进行实验验证,结果表明CenterNet−GhostNet模型能在保证检测速度的同时提升检测精度,满足选煤厂危险区域人员检测需求。

    (4) 将CenterNet−GhostNet模型部署在NVIDIA Jetson Nano上,配合监控摄像机、报警器,能够在工作人员进入危险区域时及时报警提示。实验结果表明,模型单帧检测耗时67 ms,满足实时检测要求。

  • [1] 谢和平,周宏伟,薛东杰,等.煤炭深部开采与极限开采深度的研究与思考[J].煤炭学报,2012,37(4):535-542.
    [2] 蓝航,陈东科,毛德兵.我国煤矿深部开采现状及灾害防治分析[J].煤炭科学技术,2016,44(1):39-46.
    [3] 中国煤层气产业发展现状[BE/OL].(2009-09-28)[2023-06-13]. http://www.sxeoal.eom/gas/725750/artielenew.html.
    [4] 董丁稳.基于安全监控系统实测数据的瓦斯浓度预测预警研究[D].西安:西安科技大学,2012.
    [5] 罗新荣,杨飞,康与涛,等.延时煤与瓦斯突出的实时预警理论与应用研究[J].中国矿业大学学报,2008(2):163-166.
    [6] 杨宏伟,钱志良.矿井瓦斯超限实时预警技术研究[J].煤炭科学技术,2019,47(8):158-163.
    [7] 高原,张士岭.矿井瓦斯超限风险预测技术研究与应用[J].煤矿安全,2015,46(6):122-125.
    [8] 曹运江,黄祥宽,蔡昌和.瓦斯形成类型研究[J].当代化工研究,2020(15):39-40.
    [9] 尚旭.分层充填开采煤层瓦斯渗流及涌出规律研究[D].阜新:辽宁工程技术大学,2022.
    [10] 任玉辉,刘业娇,王文才.采空区瓦斯积聚治理研究——以Y型通风方式为例[J].内蒙古煤炭经济,2021(3):9-10,13.
    [11] 徐峰.井下局部瓦斯积聚的原因及处理方法[J].内蒙古石油化工,2020,46(7):72-73.
    [12] 李林.采空区煤自燃环境瓦斯运移积聚规律研究[D].徐州:中国矿业大学,2020.
    [13] 李东印,许灿荣,熊祖强.采煤工作面瓦斯流动模型及COMSOL数值解算[J].煤炭学报,2012,37(6):967-971.
    [14] 谢飞,谢长虹,罗培荣,等.瓦斯涌出特征突出预警技术在渝阳煤矿的应用[J].矿业安全与环保,2011,38(6):60-62,66.
    [15] 王建民,马国龙.基于瓦斯涌出特征的突出预警技术在大淑村矿的应用[J].矿业安全与环保,2013,40(6):39-42.
    [16] 谈国文.汪家寨煤矿基于瓦斯涌出特征的煤与瓦斯突出预警指标确定方法研究[J].矿业安全与环保,2015,42(3):34-37.
  • 期刊类型引用(4)

    1. 王吉恒. 煤矿工作面设计与预裂爆破参数优化对顶煤回收率的影响研究. 凿岩机械气动工具. 2025(01): 31-33 . 百度学术
    2. 郝明,李学龙,杨玉龙. 基于对比度-区域均匀性图分析的综放工作面上隅角瓦斯超限预警算法研究. 中国煤炭. 2024(08): 87-93 . 百度学术
    3. 朱墨然. 瓦斯超限预警技术研究及系统应用. 能源与环保. 2024(09): 16-22 . 百度学术
    4. 唐利山,王占军,刘俊旭,张乐,祁凯,陈宝辉. 棋盘井煤矿(东区)16号煤层瓦斯赋存主控因素分析及瓦斯含量预测. 能源与环保. 2024(09): 11-15+22 . 百度学术

    其他类型引用(0)

计量
  • 文章访问数:  100
  • HTML全文浏览量:  17
  • PDF下载量:  12
  • 被引次数: 4
出版历程
  • 收稿日期:  2023-07-10
  • 网络出版日期:  2023-09-14
  • 刊出日期:  2023-09-14

目录

/

返回文章
返回