基于改进STDC的井下轨道区域实时分割方法

马天, 李凡卉, 杨嘉怡, 张杰慧, 丁旭涵

马天,李凡卉,杨嘉怡,等. 基于改进STDC的井下轨道区域实时分割方法[J]. 工矿自动化,2023,49(11):107-114. DOI: 10.13272/j.issn.1671-251x.2023080076
引用本文: 马天,李凡卉,杨嘉怡,等. 基于改进STDC的井下轨道区域实时分割方法[J]. 工矿自动化,2023,49(11):107-114. DOI: 10.13272/j.issn.1671-251x.2023080076
MA Tian, LI Fanhui, YANG Jiayi, et al. Real time segmentation method for underground track area based on improved STDC[J]. Journal of Mine Automation,2023,49(11):107-114. DOI: 10.13272/j.issn.1671-251x.2023080076
Citation: MA Tian, LI Fanhui, YANG Jiayi, et al. Real time segmentation method for underground track area based on improved STDC[J]. Journal of Mine Automation,2023,49(11):107-114. DOI: 10.13272/j.issn.1671-251x.2023080076

基于改进STDC的井下轨道区域实时分割方法

基金项目: 国家重点研发计划项目(2021YFB4000905);国家自然科学基金项目(62101432,62102309);陕西省自然科学基础研究计划项目(2022JM-508)。
详细信息
    作者简介:

    马天(1982—),男,河南商丘人,副教授,博士,研究方向为图形图像处理、数据可视化,E-mail:matian@xust.edu.cn

    通讯作者:

    李凡卉(1998—),女,陕西西安人,硕士研究生,研究方向为图像处理,E-mail:julyhuizili@163.com

  • 中图分类号: TD67

Real time segmentation method for underground track area based on improved STDC

  • 摘要: 目前中国大部分井下轨道运输场景较为开放,存在作业人员、散落物料或煤渣侵入到轨道上的问题,从而给机车行驶带来威胁。煤矿井下轨道区域多呈线性或弧形不规则区域,且轨道会逐渐收敛,采用目标识别框或检测轨道线的方法划分轨道区域难以精确获得轨道范围,采用轨道区域的分割可实现像素级别的精确轨道区域检测。针对目前井下轨道区域分割方法存在边缘信息分割效果差、实时性低的问题,提出了一种基于改进短期密集连接(STDC)网络的轨道区域实时分割方法。采用STDC作为骨干架构,以降低网络参数量与计算复杂度。设计了基于通道注意机制的特征注意力模块(FAM),用于捕获通道之间的依赖关系,对特征进行有效的细化和组合。使用特征融合模块(FFM)融合高级语义特征与浅层特征,并利用通道和空间注意力丰富融合特征表达,从而有效获取特征并减少特征信息丢失,提升模型性能。采用二值交叉熵损失、骰子损失及图像质量损失来优化详细信息的提取,并通过消除冗余结构来提高分割效率。在自建的数据集上对基于改进STDC的轨道区域实时分割方法进行验证,结果表明:该方法的平均交并比(MIoU)为95.88%,较STDC提高了3%;参数量为6.74 MiB,较STDC降低了18.3%;随着迭代次数增加,优化后的损失函数值持续减小,且较STDC降低更为明显;基于改进STDC的轨道区域实时分割方法的MIoU达95.88%,帧速率为37.8帧/s,参数量为6.74 MiB,准确率为99.46%。该方法可完整识别轨道区域,轨道被准确地分割且边缘轮廓完整准确。
    Abstract: Currently, most underground rail transportation scenarios in China are relatively open. There are problems of operators, scattered materials, or coal slag invading the track. It poses a threat to locomotive operation. The underground track area of coal mines often presents linear or arc-shaped irregular areas, and the track gradually converges. It is difficult to accurately obtain the track range by using object recognition boxes or detecting track lines to divide the track area. Using track area segmentation can achieve pixel level accurate track area detection. Aiming at the problems of poor edge information segmentation and low real-time performance in current underground track area segmentation methods, a real-time track area segmentation method based on improved network short-term dense concatenate (STDC) is proposed. STDC is adopted as the backbone architecture to reduce the amount of network parameters and computational complexity. A feature attention module (FAM) based on channel attention mechanism is designed to capture the dependency relationships between channels and effectively refine and combine features. The feature fusion module (FFM) is used to fuse advanced semantic features with shallow features. The channel and spatial attention are utilized to enrich the fusion feature expression, effectively obtaining features and reducing feature information loss, improving model performance. Binary cross entropy loss, dice loss, and image quality loss are used to optimize the extraction of detailed information, and to improve segmentation efficiency by eliminating redundant structures. By verifying on a self built dataset, the results show the following points. The mean intersection over union (MIoU) of the improved STDC based real-time segmentation method for track area is 95.88, which is 3% higher than STDC. The number of parameters is 6.74 MiB, which is 18.3% lower than STDC. As the number of iterations increases, the optimized loss function value continues to decrease, and the decrease in function value is more significant than that of the original model. The MIoU of the improved STDC based real-time segmentation method for track area reaches 95.88%, frames per second is 37.8 frames/s, the number of parameters is 6.74 MiB, and accuray rate is 99.46%. This method can fully recognize the track area, accurately segment the track, and provide complete and accurate edge contours.
  • 近年来,随着我国煤矿智能化开采规模不断扩大,对井下运输安全化和智能化日益重视[1]。作为煤炭生产中一种重要的运输方式,矿井轨道运输若发生安全事故将严重影响生产效率。目前我国大部分井下轨道运输场景相对开放,在这种情况下存在作业人员、散落物料或煤渣侵入到轨道上的问题,这些因素都会给机车行驶带来威胁。因此,在有轨机车行驶过程中划定出轨道区域,并进行有效异物检测和决策判断非常必要,不仅可提高机车主动感知能力,且在辅助驾驶方面具有重要研究意义[2]

    在不同场景下,精准识别轨道区域已成为当前的研究热点之一。文献[3-4]采用传统的计算机视觉技术进行了相应研究,如边缘检测、Hough变换、阈值分割等,以实现轨道区域的识别和分割。文献[5]提出了一种适用于井下复杂环境的轨道检测方法,该方法将图像片段进行灰度拉伸和边缘检测,并通过动态跟踪识别前一帧图像轨道来消除后一帧图像中的干扰。然而,该方法存在前后帧依赖性强、局限性较大、低光照条件下表现不佳等问题。文献[6]基于Hough变换提出了极角极径约束法,在建立轨道感兴趣区域时考虑了轨道角度约束范围,从而有效提高了轨道检测效果。但由于算法复杂度较高,难以处理复杂环境下的检测任务。传统图像处理算法需要手工设计和组合复杂特征,大多数只适用于轨道以直线为主的理想情况。然而,实际矿井巷道环境复杂,传统算法在弯道、多轨交叉或目标轨道被遮挡的情况下,难以准确提取出轨道区域,且容易包含非轨道信息,使得检测性能不佳且鲁棒性差。因此,需要研究高效可靠的轨道检测方法,积极推进智能化驾驶在煤矿井下的应用,为煤矿智能化建设提供有力支撑[7]

    近年来,深度学习技术的快速发展和广泛应用为轨道检测领域带来了全新机遇。文献[8]提出了一种利用空间卷积神经网络检测轨道线的方法,该方法采用扩张卷积和改进空间卷积网络来整合不同尺度的上下文信息。然而,由于模型参数量较大,无法满足实时性需求。文献[9]为实现井下轨道线的实时检测,改进双边分割模型,并通过金字塔注意力模块获取更大感受野,以提高轨道检测精度。然而,在较为昏暗和过度昏暗环境中的误检率较高。此外,煤矿井下轨道区域多呈线性或弧形不规则区域,且轨道会逐渐收敛。使用目标识别框[10]或检测轨道线[11]的方法划分轨道区域难以精确获得轨道范围。因此,将轨道线检测问题视为对轨道区域进行整体分割的任务。相较仅检测轨道线,轨道区域分割具备更强的抗干扰能力和全局信息捕获能力,从而实现像素级别的精确轨道区域检测。文献[12]根据轨道结构特点,提出了改进BiSeNet[13]的实时语义分割网络,在原模型上添加子网络融合模块,进一步细化特征图。然而,与BiSeNet相比,这种改进导致了帧速率的降低。煤矿井下轨道场景图像具有噪声大、目标像素占比少且边界不清晰等特点给轨道分割带来了极大挑战。

    为解决上述问题,本文设计了一种基于改进短期密集连接(Short-Term Dense Concatenate,STDC)的轨道区域实时分割方法。首先,采用STDC网络作为骨干架构,以降低网络参数量与计算复杂度。其次,采用判别语义特征的注意力模块来提升网络表征能力,同时利用双分支融合模块输出多层次特征,以提高模型的学习与表达能力。然后,在网络训练过程中,采用二元交叉熵损失、骰子损失和图像质量损失优化细节信息,生成细节特征图。最后,采集真实煤矿场景和模拟矿井的视频数据,构建煤矿井下轨道数据集,以进行训练与验证。

    基于改进STDC的实时分割方法的整体网络结构包括仅训练部分和训练及测试部分,如图1所示。仅训练部分由细节损失(Detail Loss)、分割损失(Seg Loss)、细节头(Detail Head)和分割头(Seg Head)组成;训练及测试部分包含STDC骨干网络、特征注意力模块(Feature Attention Module,FAM)和特征融合模块(Feature Fusion Module,FFM)。其中,STDC骨干网络包括5个阶段,第1,2阶段仅使用1个卷积块提取低级特征;第3—5阶段对特征图进行下采样操作,生成下采样率为1/8,1/16,1/32的特征图。

    首先,对通过骨干网络处理后的特征图进行全局平均池化,获得全局上下文信息。其次,将第3阶段输出的低层次细节信息输入FFM。第4,5阶段输出的特征图经FAM处理后与全局上下文信息融合,为FFM提供高层次语义信息。最后,FFM输出的特征图通过8倍上采样进入Seg Head。Seg Head包括1个3×3卷积核、批归一化和ReLU操作,以及1个1×1卷积核,并在最终输出维度方面进行调整。Seg Loss使用二元交叉熵损失函数来优化语义分割学习任务。

    图  1  基于改进STDC的实时分割方法的整体网络结构
    Figure  1.  Overall network structure of real time segmentation method based on improved short-term dense concatenate (STDC)

    为了增加第3阶段输出特征图中的细节信息,以更好地与上下文路径分支捕获的高层次语义特征相结合,在该阶段引入了Detail Head。Detail Loss通过采用二元交叉熵损失、骰子损失和图像质量损失对细节信息进行学习任务优化,生成细节特征图。在预测语义分割结果时,将来自底层的空间细节和深层次的语义信息进行融合。需要注意的是,在训练过程中仅使用Detail Head。

    为了减少特征提取过程的参数量,提出了STDC模型,其结构如图2所示,其中ConvX表示“卷积+批归一化+ReLU激活函数”的结构,MN分别表示输入和输出特征图的数量。在STDC模型内部没有进行下采样操作,随着卷积次数的增加,卷积核通道数量逐渐减少。参照BiSeNetV2[14],在处理深层高级语义信息时使用较少通道数,在处理浅层空间细节信息时使用较多通道数,以避免冗余信息的产生。在多级特征提取后,STDC模型的输出为各级特征的融合。

    图  2  STDC模型结构
    Figure  2.  Module structure of short-term dense concatenate (STDC)
    $$ {x_{{\text{output}}}} = F({x_1},{x_2}, \cdots ,{x_{{n}}}) $$ (1)

    式中:xoutput为STDC模型的输出结果;F(·)为融合操作;(x1x2,···,xn)为n个特征映射。

    将各级卷积块的输出特征组合,STDC通过通道拼接实现多尺度信息的提取,同时保持较低的计算量。

    STDCSeg[15]中的注意力细化模块使用全局平均池化来捕获全局上下文特征,但该模块无法针对性地关注局部特征信息,在应用于井下场景时,可能出现分割结果边缘模糊、小目标分割效果不佳等问题。因此,设计了FAM(图3),该模块利用通道间关系来突显通道级别的有效语义特征并抑制无效的语义特征,以降低矿井图像中混淆物体之间的类别相似性。首先,将大小为$H \times W \times {C_{{\text{in}}}}$(HWCin分别为输入特征图的高度、宽度和通道数)的特征图Fin分别通过2种池化方式生成全局平均池化特征图${F_{{\text{avg}}}} \in {{\bf{R}}^{1 \times 1 \times {C_{{\text{in}}}}}}$和最大池化特征图${F_{\max }} \in {{\bf{R}}^{1 \times 1 \times {C_{{\text{in}}}}}}$。接着,使用1×1卷积将FavgFmax连接并降维到${{\bf{R}}^{1 \times 1 \times {C_{{\text{out}}}}/r}}$,其中Cout为输出特征图的通道数,r为减速比。然后,应用ReLU非线性激活函数以避免梯度消失,并利用1×1卷积作为增维层返回通道数Cout。最后,使用Sigmoid函数对卷积结果进行激活,得到权重向量${\boldsymbol{V}} \in {{\bf{R}}^{1 \times 1 \times {C_{{\text{out}}}}}}$。同时,引入残差网络思想,将输入特征图Fin通过1×1标准卷积进行校正通道数量得到特征图映射$ F' \in {{\bf{R}}^{H \times W \times {C_{{\text{out}}}}}}$。最终,将权重向量V乘以特征图映射$ F' $得到输出特征图${F_{{\text{out}}}} \in {{\bf{R}}^{H \times W \times {C_{{\text{out}}}}}}$。

    图  3  FAM结构
    Figure  3.  Structure of feature attention module(FAM)

    借鉴STDCSeg特征融合模块的思路,本文方法将上下文路径和细节引导路径的输出特征进行连接,并计算权重向量,以实现特征向量的合并。为了增强特征图的表达能力,本文引入了空间维度信息到FFM(图4)中,可使双路径输出具备不同层次的特征表示。

    图  4  FFM结构
    Figure  4.  Structure of feature fusion module(FFM)

    首先,连接上下文路径和细节引导路径的输出特征,并使用批归一化来平衡特征的尺度。使用深度可分离卷积来减少参数量和计算量,得到初步融合特征$X \in {{\bf{R}}^{H \times W \times C}}$,其中特征图的输入、输出通道数C保持不变。然后,将特征图输入通道注意力机制部分,通过全局池化并经过1×1卷积降维操作后应用ReLU函数引入非线性,得以计算出权重向量${{\boldsymbol{V}}_{{\text{channel}}}} \in {{\bf{R}}^{1 \times 1 \times C}}$。最后,使用Vchannel对输入X重新加权,得到通道路径特征图Fchannel

    空间注意力模块[16](Spatial Attention Module,SAM)利用像素之间的关系来计算权重,以表示输入特征中每个像素的重要性。首先,在通道维度上对X生成全局平均池化特征图${F_{\arg }} \in {{\bf{R}}^{H \times W \times 1}}$和自适应全局池化特征图${F_{\max }} \in {{\bf{R}}^{H \times W \times 1}}$,将其拼接整合,经过标准卷积和Sigmoid激活函数得到空间注意力权重向量${{\boldsymbol{V}}_{{\text{spatial}}}} \in {{\bf{R}}^{1 \times 1 \times C}}$。然后,使用该特征图重新加权输入X,得到空间路径特征图Fspatial。最后,将通道路径和空间路径生成的特征图串联以完成特征融合。

    在深度学习框架飞桨(Paddlepaddle)下进行模型实验,实验环境为Windows 10系统,硬件设备CPU为Intel(R) Core(TM) i7−10700K处理器,并使用单NVIDIA RTX 3060显卡加速运算。为了加快网络对训练的适应速度,采用学习率为10−3的随机梯度下降优化器进行参数优化,输入大小为1 024×512的图像,批大小设定为8,迭代次数为10 000,权重递减为4.0×10−5

    由于当前没有公开的煤矿井下轨道数据集,为评估本文方法的性能,自建了专用数据集。该数据集包括真实矿井的监控视频数据和西安科技大学模拟矿井的车头车况视频数据,通过提取视频帧筛选得到700张煤矿井下轨道图像,其中真实矿井监控图像310张,模拟矿井图像390张。使用基于Paddlepaddle开发的交互式分割标注软件EISeg[17]对轨道目标进行标注。标注图像涵盖了直线轨道、曲线轨道、遮挡轨道等多种轨道类型。利用Python图像增强工具Augmentor库,对图像进行随机翻转、缩放变形、亮度增强和对比度增强等变换。增强后的数据集包含1 400张图像,图像分辨率大小统一处理为1 024×512,并将其按7∶2∶1的比例随机划分为训练集、验证集和测试集。

    在设定的参数条件下,将模型在数据集上进行训练,并使用平均交并比(Mean Intersection over Union,MIoU)来评估轨道分割方法的准确性。当MIoU趋近于1时,推断模型性能较优。

    $$ M = \frac{1}{{k + 1}}\sum\limits_{i = 0}^k {\frac{N_{\mathrm{TP}}}{N_{\mathrm{FN}}+N_{\mathrm{FP}}+N_{\mathrm{TP}}}} $$ (2)

    式中:M为MIoU;k为标注类别总数量;i为标签类别个数;NTP为被预测为正样本的正样本数量;NFN为被预测为负样本的正样本数量;NFP为被预测为正样本的负样本数量。

    帧速率(Frames Per Second,FPS)指标用于衡量轨道分割方法的推理速度,即模型每秒处理的图像帧数,较高的帧数表示模型具有更快的处理速度。参数量(Params)用于衡量模型大小。准确率表示分割结果中被正确分类的像素数与总像素数之比,准确率越高,说明分割结果中被正确分类的像素越多,即分割性能越好。

    为验证FAM、FFM及优化损失函数的有效性,在保持主干网络STDC不变的情况下,采用MIoU和Params作为评价指标,在自建数据集上进行训练和验证。消融实验结果见表1

    表  1  消融实验结果
    Table  1.  Results of ablation experiment
    STDC FAM FFM MIoU/% Params/MiB
    92.88 8.25
    93.74 8.25
    93.21 6.74
    95.88 6.74
    下载: 导出CSV 
    | 显示表格

    表1可看出,在STDC中加入FAM,MIoU为93.74%,这是因为FAM将全局池化操作和最大池化操作结合,能够更加关注训练中的特征信息,并提升网络表达能力。在STDC中加入FFM时,MIoU为93.21%,Params为6.74 MiB,较STDC降低了18.3%。这是因为FFM将注意力机制扩展到特征融合领域,在有效融合高层次语义信息和低层次空间信息方面发挥着重要作用,并显著提升网络性能。在STDC中加入FAM和FFM,MIoU达95.88%,同时Params达6.74 MiB,较STDC降低了18.3%。

    在训练过程中使用2个Head输出计算损失。对于井下轨道区域识别的Seg Loss部分,采用二元交叉熵损失函数(Binary Cross Entropy Loss,BCELoss)来区分正样本和负样本。然而,在进行前景与背景的细节预测Detail Loss时,如果背景元素数量大于前景元素数量时,仅使用BCELoss会造成模型严重偏向背景,而对模型训练和预测效果产生影响。因此,本文加入骰子损失函数DiceLoss和结构相似性损失函数(Structural Similarity Index Loss,SSIMLoss)共同优化细节学习。其中,DiceLoss可缓解样本中前景背景(面积)不平衡带来的消极影响,SSIMLoss则能有效地捕获图像中的结构信息。

    基于Paddlepaddle的可视化工具VisualDL对整个训练过程进行记录。损失函数优化结果如图5所示,可看出随着迭代次数增加,本文模型损失函数值持续减小,且较原始模型降低更为显著。说明本文方法不仅拟合速度更快,且指标增长更明显。

    图  5  损失函数优化结果
    Figure  5.  Loss of the function optimization results

    为验证本文方法的分割性能,在自建数据集上将其与ENet[18],SegNet[19],Deeplab3v+[20],BiSeNetV2,SFNet[21],STDCSeg 6种经典分割方法及文献[12]的井下轨道分割方法进行对比,结果见表2。可看出本文方法MIoU达95.88%,FPS为37.8帧/s,准确率为99.46%。与其他分割方法相比,本文方法的MIoU分别提升了20.04%,11.57%,5.16%,13.78%,1.61%,3%,8.69%,FPS分别提升了14.5,20.2,28.6,6.5,11.2,5.5,7.1 帧/s,Params为6.74 MiB,略低于ENet、BiSeNetV2和文献[12]方法。这是因为FAM能够捕获通道之间的依赖关系并突出分割对象,从而减轻了冗余特征对准确性的影响,进而取得更出色的分割结果。本文方法能够在资源有限的情况下有效执行分割任务。SFNet的MIoU为94.27%,其优势在于通过语义流对齐不同层之间的特征,使高级特征图上的低分辨率语义信息能够有效传递至低级特征图中。然而,SFNet的FPS仅为26.6帧/s,在满足实时需求方面有所欠缺。此外,文献[12]方法的MIoU较BiSeNet提高了5.09%。然而,与本文方法相比,并没有明显的优势。尽管ENet的Params最少,但其MIoU仅为75.84%,分割效果不佳。因此,本文方法在满足实时需求的同时,在分割效果上也取得了显著提升,更适用于井下轨道分割任务。

    表  2  不同方法的轨道分割性能
    Table  2.  Track segmentation performance of different methods
    方法 主干网络 MIoU/% FPS/(帧·s−1 Params/MiB 准确率/%
    ENet 75.84 23.3 0.35 95.96
    SegNet VGG16 84.31 17.6 29.61 97.53
    Deeplab3v+ ResNet18 90.72 9.2 12.38 98.61
    BiSeNetV2 ResNet18 82.10 31.3 2.32 97.3
    SFNet ResNet18 94.27 26.6 13.8 99.25
    STDCSeg STDC1 92.88 32.3 8.25 99.12
    文献[12]方法 ResNet18 87.19 30.7 4.89 97.89
    本文方法 STDC1 95.88 37.8 6.74 99.46
    下载: 导出CSV 
    | 显示表格

    不同方法的轨道分割效果如图6所示,其中绿色表示轨道区域,红色为背景。通过与原图像和真实标签对比可看出,其他方法在不同程度上出现了分割不完整或错误分割的情况:SFNet的分割结果较理想,但其对遮挡轨道分割效果略差于本文方法;ENet未能正确地分割出轨道区域,且其边缘粗糙;SegNet、BiSeNetV2和文献[12]方法在处理图像边缘时表现欠佳,导致边缘分割效果也不理想;STDCSeg在轨道区域上具有良好的分割效果,但存在误检情况。本文方法可完整识别轨道区域,轨道被准确分割且边缘轮廓完整准确。这是由于FFM能够更好地将浅层特征信息融入高级语义特征中,在补充丢失信息的同时,利用通道与空间注意力机制丰富融合特征,从而大幅度提高模型的学习与表达能力。本文方法能够更好地应对井下场景中的复杂背景、光照变化和噪声等因素,提高了分割结果的泛化性和准确性。

    图  6  不同方法的轨道分割效果
    Figure  6.  Track segmentation effect of different methods

    1) 提出了一种适用于井下轨道区域的实时分割方法。通过采用STDC网络和多个模块来优化网络性能,其中包括用于判别语义特征的FAM及用于有效特征融合的FFM。

    2) 基于煤矿井下轨道数据集训练改进STDC的分割模型,其MIoU达95.88%,FPS为37.8帧/s,参数量大小为6.74 MiB,准确率为99.46%。该模型在精度和速度之间取得了良好平衡,并展现出优秀的分割结果。

    3) 尽管实时分割模型在准确率和推理速度方面取得了领先,但该方法的模型复杂度略低于ENet。在未来的工作中,将考虑设计更轻量级、更高效的编码器模块、注意力模块以改进模型。

  • 图  1   基于改进STDC的实时分割方法的整体网络结构

    Figure  1.   Overall network structure of real time segmentation method based on improved short-term dense concatenate (STDC)

    图  2   STDC模型结构

    Figure  2.   Module structure of short-term dense concatenate (STDC)

    图  3   FAM结构

    Figure  3.   Structure of feature attention module(FAM)

    图  4   FFM结构

    Figure  4.   Structure of feature fusion module(FFM)

    图  5   损失函数优化结果

    Figure  5.   Loss of the function optimization results

    图  6   不同方法的轨道分割效果

    Figure  6.   Track segmentation effect of different methods

    表  1   消融实验结果

    Table  1   Results of ablation experiment

    STDC FAM FFM MIoU/% Params/MiB
    92.88 8.25
    93.74 8.25
    93.21 6.74
    95.88 6.74
    下载: 导出CSV

    表  2   不同方法的轨道分割性能

    Table  2   Track segmentation performance of different methods

    方法 主干网络 MIoU/% FPS/(帧·s−1 Params/MiB 准确率/%
    ENet 75.84 23.3 0.35 95.96
    SegNet VGG16 84.31 17.6 29.61 97.53
    Deeplab3v+ ResNet18 90.72 9.2 12.38 98.61
    BiSeNetV2 ResNet18 82.10 31.3 2.32 97.3
    SFNet ResNet18 94.27 26.6 13.8 99.25
    STDCSeg STDC1 92.88 32.3 8.25 99.12
    文献[12]方法 ResNet18 87.19 30.7 4.89 97.89
    本文方法 STDC1 95.88 37.8 6.74 99.46
    下载: 导出CSV
  • [1] 王国法,王虹,任怀伟,等. 智慧煤矿2025情景目标和发展路径[J]. 煤炭学报,2018,43(2):295-305. DOI: 10.13225/j.cnki.jccs.2018.0152

    WANG Guofa,WANG Hong,REN Huaiwei,et al. 2025 scenarios and development path of intelligent coal mine[J]. Journal of China Coal Society,2018,43(2):295-305. DOI: 10.13225/j.cnki.jccs.2018.0152

    [2] 胡青松,孟春蕾,李世银,等. 矿井无人驾驶环境感知技术研究现状及展望[J]. 工矿自动化,2023,49(6):128-140. DOI: 10.13272/j.issn.1671-251x.18115

    HU Qingsong,MENG Chunlei,LI Shiyin,et al. Research status and prospects of perception technology for unmanned mining vehicle driving environment[J]. Journal of Mine Automation,2023,49(6):128-140. DOI: 10.13272/j.issn.1671-251x.18115

    [3]

    ASSIDIQ A A,KHALIFA O O,ISLAM M R,et al. Real time lane detection for autonomous vehicles[C]. International Conference on Computer and Communication Engineering,Kuala Lumpur,2008:82-88.

    [4]

    FATIH K,YUSUF S A. Vision-based railroad track extraction using dynamic programming [C]. International IEEE Conference on Intelligent Transportation Systems,Saint Louis,2009:42-47.

    [5] 谢昭莉,王壬,张德全. 基于图像识别的井下机车轨道检测方法[J]. 计算机工程,2012,38(14):147-149.

    XIE Zhaoli,WANG Ren,ZHANG Dequan. Track detection method of underground locomotive based on image recognition[J]. Computer Engineering,2012,38(14):147-149.

    [6] 李晓明,郎文辉,马忠磊,等. 基于图像处理的井下机车行人检测技术[J]. 煤矿机械,2017,38(4):167-170. DOI: 10.13436/j.mkjx.201704059

    LI Xiaoming,LANG Wenhui,MA Zhonglei,et al. Pedestrian detection technology for mine locomotive based on image processing[J]. Coal Mine Machinery,2017,38(4):167-170. DOI: 10.13436/j.mkjx.201704059

    [7] 王国法,刘峰,庞义辉,等. 煤矿智能化——煤炭工业高质量发展的核心技术支撑[J]. 煤炭学报,2019,44(2):349-357. DOI: 10.13225/j.cnki.jccs.2018.2041

    WANG Guofa,LIU Feng,PANG Yihui,et al. Coal mine intellectualization:the core technology of high quality development[J]. Journal of China Coal Society,2019,44(2):349-357. DOI: 10.13225/j.cnki.jccs.2018.2041

    [8] 韩江洪,乔晓敏,卫星,等. 基于空间卷积神经网络的井下轨道检测方法[J]. 电子测量与仪器学报,2018,32(12):34-43. DOI: 10.13382/j.jemi.2018.12.005

    HAN Jianghong,QIAO Xiaomin,WEI Xing,et al. Downhole track detection method based on spatial convolutional neural network[J]. Journal of Electronic Measurement and Instrumentation,2018,32(12):34-43. DOI: 10.13382/j.jemi.2018.12.005

    [9] 卫星,刘邵凡,杨国强,等. 基于改进双边分割网络的井下轨道检测算法[J]. 计算机应用研究,2020,37(增刊1):348-350.

    WEI Xing,LIU Shaofan,YANG Guoqiang,et al. Track detection algorithm via modified bilateral segmentation network[J]. Application Research of Computers,2020,37(S1):348-350.

    [10] 鲍新平,汪涛. 基于AI视觉智能识别的煤矿斜井轨道运输安全管理系统[J]. 工矿自动化,2023,49(增刊1):72-75.

    BAO Xinping,WANG Tao. A safety management system for coal mine inclined shaft rail transportation based on intelligent AI visual recognition[J]. Journal of Mine Automation,2023,49(S1):72-75.

    [11] 杨荣锦,张秀峰,龚莉娜,等. 基于深度学习的车道线检测方法综述[J]. 大连民族大学学报,2021,23(1):40-44. DOI: 10.3969/j.issn.1009-315X.2021.01.009

    YANG Rongjin,ZHANG Xiufeng,GONG Li'na,et al. Survey of lane detection methods based on deep learning[J]. Journal of Dalian Minzu University,2021,23(1):40-44. DOI: 10.3969/j.issn.1009-315X.2021.01.009

    [12] 周华平,郑锐. 基于改进BiSeNet的煤矿井下轨道检测算法[J]. 湖北民族大学学报(自然科学版),2021,39(4):398-403.

    ZHOU Huaping,ZHENG Rui. Underground rail detection algorithm based on improved BiSeNet[J]. Journal of Hubei Minzu University(Natural Science Edition),2021,39(4):398-403.

    [13]

    YU Changqian,WANG Jingbo,PENG Chao,et al. BiSeNet:bilateral segmentation network for real-time semantic segmentation[C]. European Conference on Computer Vision,Berlin,2018:334-349.

    [14]

    YU Changqian,GAO Changxin,WANG Jingbo,et al. BiSeNet V2:bilateral network with guided aggregation for real-time semantic segmentation[J]. International Journal of Computer Vision,2021,129(11). DOI: 10.1007/S11263-021-01515-2.

    [15]

    FAN Mingyuan,LAI Shenqi,HUANG Junshi,et al. Rethinking bisenet for real-time semantic segmentation[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Nashville,2021:9716-9725.

    [16]

    ZHU Xizhou,CHENG Dazhi,ZHANG Zheng,et al. An empirical study of spatial attention mechanisms in deep networks[C]. IEEE/CVF International Conference on Computer Vision,Piscataway,2019:6688-6697.

    [17]

    HAO Yuying,LIU Yi,CHEN Yizhou,et al. EISeg:an efficient interactive segmentation annotation tool based on paddlepaddle[C]. Computer Vision and Pattern Recognition,New Orleans,2022. DOI: 10.48550/arXiv.2210.08788.

    [18]

    PASZKE A,CHAURASIA A,KIM S,et al. Enet:a deep neural network architecture for real-time semantic segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016. DOI: 10.48550/arXiv.1606.02147.

    [19]

    BADRINARAYANAN V,KENDALL A,CIPOLLA R. SegNet:a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(12):2481-2495.

    [20]

    CHEN L C,ZHU Yukun,PAPANDREOU G,et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. European Conference on Computer Vision,Munich,2018:801-818.

    [21]

    LI Xiangtai,YOU Ansheng,ZHU Zhen,et al. Semantic flow for fast and accurate scene parsing[C]. European Conference on Computer Vision,Berlin,2020:775-793.

  • 期刊类型引用(0)

    其他类型引用(1)

图(6)  /  表(2)
计量
  • 文章访问数:  189
  • HTML全文浏览量:  72
  • PDF下载量:  27
  • 被引次数: 1
出版历程
  • 收稿日期:  2023-08-21
  • 修回日期:  2023-11-14
  • 网络出版日期:  2023-11-22
  • 刊出日期:  2023-11-24

目录

/

返回文章
返回