基于预见控制的带式输送机调速节能方法

韩东升, 杜永贵, 庞宇松, 乔铁柱, 阎高伟

韩东升,杜永贵,庞宇松,等.基于预见控制的带式输送机调速节能方法[J].工矿自动化,2018,44(6):64-68.. DOI: 10.13272/j.issn.1671-251x.2017120006
引用本文: 韩东升,杜永贵,庞宇松,等.基于预见控制的带式输送机调速节能方法[J].工矿自动化,2018,44(6):64-68.. DOI: 10.13272/j.issn.1671-251x.2017120006
HAN Dongsheng, DU Yonggui, PANG Yusong, QIAO Tiezhu, YAN Gaowei. Speed regulation energy saving method of belt conveyor based on preview control[J]. Journal of Mine Automation, 2018, 44(6): 64-68. DOI: 10.13272/j.issn.1671-251x.2017120006
Citation: HAN Dongsheng, DU Yonggui, PANG Yusong, QIAO Tiezhu, YAN Gaowei. Speed regulation energy saving method of belt conveyor based on preview control[J]. Journal of Mine Automation, 2018, 44(6): 64-68. DOI: 10.13272/j.issn.1671-251x.2017120006

基于预见控制的带式输送机调速节能方法

基金项目: 

国家自然科学基金资助项目(61450011,61503271)

山西省自然科学基金资助项目(2015011052)

详细信息
  • 中图分类号: TD634

Speed regulation energy saving method of belt conveyor based on preview control

  • 摘要: 针对目前的带式输送机变速节能控制方法均在短时间内对速度进行调节,速度突变易导致输送带撕裂、打滑的问题,提出了一种基于预见控制的带式输送机调速节能方法。该方法根据前一级带式输送机的物料运载量计算使下一级带式输送机以额定运载量运行所需的速度,通过预见控制调节下一级带式输送机运行速度;针对噪声对调速效果的不利影响,在预见控制中利用卡尔曼滤波对被控带式输送机状态进行最优估计,削弱噪声干扰,使调速过程平稳。仿真结果表明,该方法能充分利用带式输送机的运载能力,减少带式输送机功率消耗,在保证带式输送机安全运行的基础上达到了调速节能的目的。
    Abstract: Current speed regulation energy saving methods all regulate speed of belt conveyor in short time, and speed mutation is easy to cause tear and slipping of belt conveyor. In view of above problem, a speed regulation energy saving method of belt conveyor based on preview control was proposed. According to material carrying capacity of preceding belt conveyor, speed which makes succeeding belt conveyor run at rated carrying capacity is calculated, and running speed of the succeeding belt conveyor is adjusted through preview control. Aiming at negative influence of noise on speed regulation effect, Kalman filter is used to estimate state of the controlled belt conveyor in the process of preview control, which can weaken noise interference and smooth speed regulation process. The simulation results show that the method can fully utilize carrying capacity of belt conveyor, reduce power consumption of belt conveyor, and achieve purpose of speed regulation and energy saving on the basis of ensuring safe operation of belt conveyor.
  • 矿井火灾是煤炭开采过程中的一种严重的安全事故,不仅会造成人员伤亡和巨大的财产损失,还会对环境和社会造成不可逆转的影响。因此,对矿井安全状况进行有效监测,对火灾风险的发展趋势进行精准预测,是煤炭安全生产的重要课题,也是保障矿工生命安全和提高生产效率的必要措施。

    矿井火灾分为外因火灾和内因火灾。内因火灾是由于煤炭或其他易燃物质自身氧化蓄热并发生燃烧而引起的火灾。当前监测矿井安全状况和预测矿井内因火灾发展趋势的主要方法[1-2]包括温度监测法[3-5]、烟雾监测法、可见光图像监测法[6-8]、红外图像监测法[9]、多参数融合监测法[10]、气体分析法。其中,温度监测法、烟雾监测法通过传感器监测矿井温度、烟雾,可见光图像监测法、红外图像监测法分别通过可见光摄像头和红外摄像头监测矿井可见光、温度,实现火灾监测,这些方法并不能有效地预测早期火灾。多参数融合监测法对矿井生产中的多种参数进行综合分析,该方法虽具有较高的预测精度,但存在算法难度大、成本高的弊端。气体分析法通过传感器监测矿井火灾产生的标志性气体的浓度变化,对矿井内因火灾进行有效预测。

    煤体在燃烧的各个时期都存在气体浓度的变化,通过气体分析法可有效监测火灾的整个过程,同时气体分析法所使用的算法复杂度较小,成本较低。许多学者采用气体分析法对矿井火灾进行了广泛研究。魏超等[11]依据煤自燃过程中各阶段释的放标志性气体不同的特点,以及采空区三带静态分布理论,给出了定性和定量判断采空区煤自然发火状况的方法,设计了基于激光气体分析的矿井火灾预警装置。侯毛伟等[12]采用光纤气体传感器监测煤矿井下一氧化碳与氧气等自然发火标志气体浓度,实现了全光纤火灾预测预警及综合监测,提高了煤矿安全生产系数。陈雅等[13]将特定气体作为煤矿自燃的危机征兆,运用BP神经网络建立了煤矿内因火灾预测模型,该模型具有通用性、扩展性和高效性等优点。刘永立等[14]利用采空区遗煤氧化过程产生的气体构建模型数据集,通过调整长短时记忆(Long Short Term Memory,LSTM)模型时间步长和迭代次数,分析模型超参数对预测遗煤温度的影响,提高了煤矿火灾的预测精度。以上方法在预测矿井内因火灾中起到了一定的作用,但煤体燃烧是一个阶段性过程,过程中产生的气体浓度会随着时间动态变化,呈现一定的趋势性和周期性,通过分析时间序列的趋势性和周期性,可对序列的未来走向进行预测。因此,将时间序列预测引入气体分析法。

    时间序列预测是一种利用历史数据来预测未来数据的方法,在各行各业有着广泛应用。常见的时间序列预测算法在处理单一变量的简单数据时有着较好的预测效果,但在预测数据量大的多变量数据时往往不能有效捕捉数据之间的长期依赖关系。而Transformer算法是一种基于自注意力的神经网络模型,它不使用循环连接来处理序列数据,可直接访问整个输入序列,直接处理非平稳数据,通过自注意力机制来计算每个时间步骤与其他时间步骤的相关性,从而捕捉到序列之间的长期依赖性和周期性。由于不使用循环连接,Transformer还可进行并行化训练,且能更好地处理噪声和异常值。通过查阅大量参考文献,发现Transformer算法在多领域得到了广泛应用[15-20],但在煤矿火灾预测方面的研究较少。针对上述问题,本文提出基于Transformer的矿井内因火灾时间序列预测方法。首先,采用Hampel滤波器和拉格朗日插值法对数据进行预处理,以提高数据的质量和可用性。然后,基于Transformer算法建立矿井内因火灾时间序列预测模型。最后,通过实验验证该模型的可靠性。

    基于Transformer的矿井内因火灾预测模型包含数据预处理、Transformer算法、数据预测3个主要模块,如图1所示。采用Hampel滤波器和拉格朗日插值法对数据进行预处理,将预处理后的数据输入Transformer算法模型进行训练,采用训练后的Transformer算法模型对测试数据进行预测。

    图  1  基于Transformer的矿井内因火灾预测模型
    Figure  1.  Mine internal caused fire prediction model based on Transformer

    实验所用数据来自于井下气体传感器。在实际生产中,传感器经常会受到各种因素(如电磁、机械振动、温度变化等)的干扰,易出现与真实值偏差较大的异常值。这些异常值会影响数据的质量和可信度,从而降低模型的准确性和稳定性。此外,当井下气体传感器出现故障时,也会导致一段时间的真实值缺失。这些缺失值会造成数据的不完整和不连续,从而增加模型的复杂度和不确定性。因此,要对实验数据进行预处理,以提高数据的质量和可用性。

    采用Hampel滤波器检测和消除数据中的尖峰噪声和脉冲噪声,利用中位数和绝对偏差来度量数据的离散程度,从而判断哪些数据是异常值,并用合理的值替换异常值,保持数据的平滑性和形状特征。

    $$ y_i=\left\{ \begin{array}{*{20}{l}}x_i\ \ \ \ \ \ \ \ \ \ |x_i-m_i|\leqslant hs_i & \\ m_i+hs_iS(x_i-m_i) & 其他\end{array}\right. $$ (1)
    $$ {s_i} = c M(\mid {x_j} - {m_i}\mid ) $$ (2)
    $$ j = i - (n - 1)/2, \cdots ,i + (n - 1)/2 $$ (3)

    式中:$ {y_i} $为滤波后的第$ i $个观测值;$ {x_i} $为原始数据中的第$i$个观测值;$ {m_i} $为以$ {x_i} $为中心的窗口内数据的中位数;$h$为阈值参数,用于控制异常值检测的灵敏度,$h = 3$;$ {s_i} $为以$ {x_i} $为中心的窗口内数据的绝对偏差中位数;$S$为符号函数;$c$为常数,$ c = 1.482\;6 $;$M$为中位数函数;$n$为窗口大小。

    采用拉格朗日插值法对缺失值进行填补,对于给定的$k + 1$个点$ ({x_0},{y_0}), ({x_1},{y_1}), \cdots ,({x_k},{y_k}) $,找到一个次数不超过$k$的多项式$L(x)$,使得$ L({x_i}) = {y_i} $对于所有i$ (i = 0,1, \cdots ,k) $成立。

    $$ L(x) = \mathop \sum \limits_{j = 0}^k {y_j}{\ell _j}(x) $$ (4)
    $$ {\ell _j}(x) = \mathop \prod \limits_{i = 0,i \ne j}^k \frac{{x - {x_i}}}{{{x_j} - {x_i}}} $$ (5)

    式中:${\ell _j}(x)$为拉格朗日基本多项式,在${x_j}$点处取值为 1,而在其他点$ {x_i}\left( {i \ne j} \right) $处取值为0;x为原始数据的观测值。

    Transformer算法不使用传统的循环神经网络或卷积神经网络,而是完全依赖于自注意力机制来计算输入和输出,自注意力机制可捕捉序列中任意2个位置之间的依赖关系,而不受距离的限制。

    将输入序列中每个位置映射为查询向量Q、键向量K和值向量V,并通过点积运算和加权求和得到一个输出向量。

    $$ A({\boldsymbol{Q}},{\boldsymbol{K}},{\boldsymbol{V}}) = {\text{soft}}\max \left(\frac{{{\boldsymbol{Q}}{{\boldsymbol{K}}^{\text{T}}}}}{{\sqrt {{d_{\boldsymbol{K}}}} }}\right){\boldsymbol{V}} $$ (6)

    式中:$A$为注意力;${{\mathrm{soft}}} \max $为归一化函数;${d_K}$为键向量的维度。

    多头自注意力机制是在自注意力机制的基础上,将输入序列中每个位置的向量分成H个子向量,分别进行自注意力计算后拼接,得到一个完整的输出向量。多头自注意力机制可使模型在关注不同子空间的同时,增加模型的多样性和表达能力。

    Transformer算法模型由编码器和解码器组成,如图2所示,每部分包含多个相同的层,每层又包含多头自注意力子层和前馈神经网络子层。编码器的输入为过去时刻的协变量序列$ {x_{1:(t - 1)}} = \{ {x_1},{x_2}, \cdots ,{x_{t - 1}}\} $和目标变量序列$ {y_{1:(t - 1)}} = \{ {y_1},{y_2}, \cdots ,{y_{t - 1}}\} $,其中$t$为预测开始的时刻。解码器的输入为未来时刻的协变量序列$ {x_{t:T}} = \{ {x_t},{x_{t + 1}}, \cdots ,{x_T}\} $,其中$T$为预测的截止时刻。模型的输出为未来时刻的目标变量序列$ {y_{t:T}} = \{ {y_t},{y_{t + 1}}, \cdots ,{y_T}\} $。序列数据因其时序性不能直接输入模型,需经过编码处理后才能输入,编码分为数据编码和位置编码,它可增强Transformer模型在时间序列预测任务上的表现。

    图  2  Transformer算法模型
    Figure  2.  Transformer algorithm model

    编码器的作用是将输入序列转换为一个高维的向量表示。编码器由N个相同的层堆叠而成,每层包括多头自注意力子层和前馈神经网络子层。编码器中第I层的多头注意力子层的输出为

    $$ \left\{ \begin{array}{*{20}{l}} M_I = C({\text{hea}}{{\text{d}}_1},{\text{hea}}{{\text{d}}_2}, \cdots ,{\text{hea}}{{\text{d}}_H}){{\boldsymbol{W}}^O} \\ {\text{hea}}{{\text{d}}_i} = A({\boldsymbol{Q}}{{\boldsymbol{W}}_i}^Q,{\boldsymbol{K}}{{\boldsymbol{W}}_i}^K,{\boldsymbol{V}}{{\boldsymbol{W}}_i}^V) \\ \end{array}\right. $$ (7)

    式中:$ M_I $为多头输出;$C$为连接函数;${\text{hea}}{{\text{d}}_H}$为第$H$个头的输出;${{\boldsymbol{W}}^O}$为拼接矩阵,用于将多个头的输出子向量拼接起来,得到一个完整的输出向量;${\text{hea}}{{\text{d}}_i}$为第$i$个头的输出;$ \boldsymbol{W}_i^Q $,$ \boldsymbol{W}_i^K $,$ \boldsymbol{W}_i^V $为多头注意力子层的可学习参数矩阵,用于将输入序列中每个位置的向量映射为QKV

    前馈神经网络子层的作用是对每个位置的向量表示进行非线性变换,增加模型的表达能力。编码器中第I层的前馈神经网络子层的输出为

    $$ F_I(x) = \max (0,x{{\boldsymbol{W}}_1} + {{\boldsymbol{b}}_1}){{\boldsymbol{W}}_2} + {{\boldsymbol{b}}_2} $$ (8)

    式中:$\max $为ReLU激活函数;${{\boldsymbol{W}}_1}$,${{\boldsymbol{W}}_2}$为可学习的参数矩阵;b1b2为可学习的偏置向量。

    解码器的作用是根据编码器的输出和已生成的目标序列来预测下一个目标序列。解码器由N个相同的层堆叠而成,每层包括多头自注意力子层、编码器−解码器注意力子层和前馈神经网络子层。解码器的多头自注意力子层使用一个掩码来遮盖未生成的位置。带掩码的自注意力为

    $$ A(\boldsymbol{Q},\boldsymbol{K},\boldsymbol{V})=\text{softmax}\left(\frac{\boldsymbol{Q}\boldsymbol{K}^{\mathrm{T}}}{\sqrt{d_{\boldsymbol{K}}}}\right)\boldsymbol{V}\text{Mask} $$ (9)

    式中${\text{Mask}}$为掩码操作。

    解码器中第I层的多头自注意力子层的输出为

    $$ \left\{ \begin{gathered} M = C({\text{hea}}{{\text{d}}_1},{\text{hea}}{{\text{d}}_2}, \cdots ,{\text{hea}}{{\text{d}}_H}){{\boldsymbol{W}}^O} \\ {\text{hea}}{{\text{d}}_I} = {A_{{\text{Mask}}}}({\boldsymbol{Q}}{{\boldsymbol{W}}_I}^Q,{\boldsymbol{K}}{{\boldsymbol{W}}_I}^K,{\boldsymbol{V}}{{\boldsymbol{W}}_I}^V) \\ \end{gathered} \right. $$ (10)

    式中AMask为解码器多头注意力子层第i个头的自注意力。

    编码器−解码器注意力子层的作用是计算已生成的目标序列中每个位置与编码器输出中每个位置的相关性。解码器中前馈神经网络子层的作用与编码器中的相同。

    煤体自燃一般要经过潜伏期(即吸附氧化)、自热期(即氧化聚热)、发展期(即着火临界阶段)和发生明火4个阶段(个别煤种不一定经过这4个阶段),不同阶段产生的主要气体有所不同[21]。以陕煤集团柠条塔煤矿井下火灾预警系统监测的数据为例,该预警系统监测了CO,O2,N2,CO2,C2H2,C2H4,C2H6 7种气体浓度。其中,C2H4主要产生于自热期,C2H2主要产生于发展期,而CO产生于煤体燃烧的整个过程,因此选取CO作为预测矿井内因火灾的标志性气体。

    选择平均绝对误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Square Error,RMSE)作为模型预测精度的评价指标。MAE和RMSE可衡量预测值和真实值之间的误差大小。MAE和RMSE的值越小,说明预测值与真实值的差距越小,模型的预测精度越高。

    $$ {\mu _{{\text{MAE}}}} = \frac{1}{m}\mathop \sum \limits_{a = 1}^m \mid {y_a} - {\hat y_a}\mid $$ (11)
    $$ {\mu _{{\text{RMSE}}}} = \sqrt {\frac{1}{m}\mathop \sum \limits_{a = 1}^m {{({y_a} - {{\hat y}_a})}^2}} $$ (12)

    式中:$ {\mu _{{\text{MAE}}}},{\mu _{{\text{RMSE}}}} $分别为平均绝对误差、均方根误差;m为样本总数量;a为样本数量;${y_a}$为真实值;$ {\hat y_a} $为预测值。

    本文选取陕煤集团柠条塔煤矿S1206回风隅角火灾预警的束管数据作为实验数据。将80%的数据作为训练样本,20%的数据作为测试样本,根据数据维度和数据大小,确定了矿井内因火灾预测模型中编码器和解码器的初始参数,多头注意力头数为5,隐藏层大小为128,内部层大小为64,前馈神经网络激活函数为ReLU。

    时间步长为30、预测长度为10时部分实验结果如图3所示。MAE为0.012 4,RMSE为0.015 6。可看出Transformer算法通过自注意力机制有效地捕捉了标志性气体序列的周期性和趋势性,预测误差在可接受范围内,说明该模型能够较好地建立数据之间的长期依赖性并进行较为精确的预测。

    图  3  测试样本中预测值与真实值的拟合曲线
    Figure  3.  Fitting curve of predicted values and true values in test samples

    煤体自燃的相关气体由同一个系统产生,相互之间存在一定关联性,若仅对CO进行单一变量的预测,预测结果不够精确。因此选取CO作为目标变量,O2,N2,CO2,C2H2,C2H4,C2H6作为协变量,将7种气体的序列同时输入模型中来预测CO的变化趋势。对CO进行单变量预测和多变量预测,结果如图4所示。可看出多变量预测精度较单变量预测精度高,说明多变量预测能通过捕捉序列间的相关性提高模型的预测精度。

    图  4  对CO进行单变量预测和多变量预测的拟合曲线
    Figure  4.  Fitted curves for univariate and multivariate predictions for CO

    在实际的生产活动中,需要的预测长度并非一成不变。而Transformer算法的一次输入值是由多个时间步的数据组成的。具体来说,对于一个长度为z的时间序列,将其分为c个长度为p的子序列,其中p是设定的时间步长。对于每个子序列,将后q个时间步长的数据作为输出,将其前pq个时间步长的数据作为输入,得到多组输入输出对。这个过程可看作一个滑动窗口,通过调节滑动窗口的大小和步长就可实现不同时间维度的预测。通过调整不同输入输出长度,模型可学习到更多的时间序列信息,从而提高模型的泛化能力。这种方法可更好地处理长时间序列数据,且在不牺牲模型性能的情况下减少计算成本。

    基于Transformer的矿井内因火灾预测模型在不同时间步长和预测长度下的误差见表1。可看出当时间步长固定时,预测精度随预测长度的增加而下降。当预测长度固定时,预测精度随时间步长增加而提高。该模型在不同时间步长和预测长度下均表现出良好的预测能力,说明该模型具有较强的泛化性。

    表  1  基于 Transformer的矿井内因火灾预测模型在不同时间步长下的误差
    Table  1.  Errors of mine internal caused fire prediction model based on Transformer under different time dimensions
    预测长度 时间步长20 时间步长30 时间步长40
    MAE RMSE MAE RMSE MAE RMSE
    5 0.012 3 0.0015 0.0119 0.0147 0.0113 0.0139
    10 0.012 7 0.0160 0.0124 0.0156 0.0119 0.0144
    15 0.014 1 0.0183 0.0126 0.0161 0.0128 0.0166
    下载: 导出CSV 
    | 显示表格

    将Transformer算法与LSTM、循环神经网络(Recurrent Neural Network,RNN)算法进行对比,实验结果见表2。以MAE而言,Transformer算法的预测精度较LSTM算法和RNN算法分别提高了7.1%~12.6%和20.9%~24.9%。可见基于Transformer的矿井内因火灾预测模型是一种高效可靠的预测模型,可有效应用于矿井内因火灾的预测。

    表  2  不同算法预测结果比较
    Table  2.  Comparison of the prediction results of the different algorithms
    时间步长 MAE
    Transformer LSTM RNN
    20 0.0160 0.0183 0.0213
    30 0.0156 0.0178 0.0200
    40 0.0144 0.0155 0.0182
    下载: 导出CSV 
    | 显示表格

    1) 提出了基于Transformer的矿井内因火灾预测模型。基于气体分析法,选取煤体燃烧过程中产生的相关气体CO,O2,N2,CO2,C2H2,C2H4,C2H6作为模型输入,将CO作为目标变量,其余气体作为协变量。

    2) 多变量预测精度较单变量预测精度高,说明多变量预测能通过捕捉序列间的相关性提高模型的预测精度。

    3) 对模型在不同时间步长和不同预测长度下进行了多次训练,当时间步长固定时,预测精度随预测长度的增加而下降;当预测长度固定时,预测精度随时间步长增加而提高。

    4) 通过实例验证,Transformer算法的预测精度较LSTM算法和RNN算法分别提高了7.1%~12.6%和20.9%~24.9%。

  • 期刊类型引用(3)

    1. 袁溪,张邵欣,张超,王宁宁,张萌萌. 基于Transformer的电动汽车充电站能耗预测研究. 计算机技术与发展. 2025(02): 213-220 . 百度学术
    2. 李捷,黄文斯. 基于深度神经网络和趋势特征向量的舱室火灾蔓延预测. 船电技术. 2024(06): 73-78 . 百度学术
    3. 贾澎涛,张杰,郭风景. 基于GAT-Informer的采空区煤自燃温度预测模型. 工矿自动化. 2024(11): 92-98+108 . 本站查看

    其他类型引用(1)

计量
  • 文章访问数:  157
  • HTML全文浏览量:  57
  • PDF下载量:  11
  • 被引次数: 4
出版历程
  • 刊出日期:  2018-06-09

目录

/

返回文章
返回