Coal mine roadway environment-oriented LiDAR and IMU fusion positioning and mapping method
-
摘要: 针对煤矿井下喷浆表面、对称巷道等引起移动机器人自主导航定位与建图失效问题,提出了一种面向煤矿巷道环境的激光雷达(LiDAR)与惯性测量单元(IMU)融合的实时定位与建图方法。首先对原始点云进行分割,利用IMU预积分位姿去除原始点云非线性运动畸变,并对得到的点云进行线、面特征提取。然后将相邻帧的线、面特征进行匹配,在分层位姿估计过程中融合IMU预积分所得到的位姿初值,减少计算迭代次数,提高特征点匹配的精度,解算出当前帧的位姿。最后向因子图中插入局部地图因子、IMU因子、关键帧因子,对位姿进行优化约束,对关键帧与局部地图进行匹配,通过八叉树结构实现地图构建。为验证所提方法的定位性能与建图效果,搭建了Autolabor 、VLP−16 LiDAR和Ellipse−N IMU的实验平台进行验证,并与LeGO−LOAM、LIO−SAM方法进行定性定量对比分析。结果表明:① 在煤矿巷道环境中,面向煤矿巷道环境的LiDAR与IMU融合的实时定位与建图方法三轴方向的绝对定位误差的均值和中值均小于32 cm;对X轴的位姿估计精度最高,其累计误差为1.65 m,位置偏差为2.97 m,建图效果整体良好,建图轨迹未发生漂移;构建的点云地图在完整性和几何结构真实性方面均有着优秀的表现,可以直观反映巷道环境的实际情况,具有良好的鲁棒性。这是因为点云匹配之后进行了分层位姿估计,多因子优化可有效降低全局累计误差,对轨迹精度和地图的一致性提升具有重要作用。② 在楼道走廊环境中,面向煤矿巷道环境的LiDAR与IMU融合的实时定位与建图方法三轴的误差均小于1.01 m,误差均值为5~15 cm,误差范围小,精度高;累计位置偏差仅为1.67 m;完整性与环境匹配均有良好的性能。这是由于通过增加关键帧因子,插入因子图对其新增节点相关变量进行优化,降低了位姿估计漂移,定位与建图精度相对较高。Abstract: The failure of autonomous navigation, positioning and mapping of the mobile robot is caused by the shotcrete surface and symmetrical roadway in coal mine. In order to solve this problem, a real-time positioning and mapping method based on LiDAR and IMU fusion is proposed for the roadway environment in the coal mine. Firstly, the original point cloud is segmented. The IMU pre-integration pose is used to remove the nonlinear motion distortion of the original point cloud. The line and surface feature extraction is carried out on the obtained point cloud. Secondly, the line and surface features of adjacent frames are matched. The initial pose value obtained by IMU pre-integration is fused in the hierarchical pose estimation process. The calculation iteration times are reduced, the matching precision of feature points is improved, and the pose of the current frame is solved. Finally, the local map factor, IMU factor and key frame factor are inserted into the factor graph to optimize and constrain the pose. The key frame is matched with the local map, and the map construction is realized through an octree structure. In order to verify the positioning performance and mapping effect of the proposed method, the experimental platforms of Autolabor, VLP-16 LiDAR and Ellipse-N IMU are built. The qualitative and quantitative comparison between the proposed method and LeGO-LOAM and LIO-SAM methods is carried out. The results show the following points. ① In the coal mine roadway environment, the average and median of the absolute positioning error in the three axes direction of the real-time positioning and mapping method based on LiDAR and IMU fusion are less than 32 cm. The position and attitude estimation precision in the X-axis is the highest, with a cumulative error of 1.65 m and a position deviation of 2.97 m. The overall mapping effect is good, and the mapping track does not drift. The point cloud map constructed has excellent performance in integrity and geometric structure authenticity. The map can directly reflect the actual situation of the roadway environment, and has good robustness. This is because hierarchical pose estimation is performed after point cloud matching. The multi-factor optimization can effectively reduce the global cumulative error, which plays an important role in improving track precision and map consistency. ② In the corridor environment, the three-axis error of the real-time positioning and mapping method based on LiDAR and IMU fusion for the coal mine roadway environment is less than 1.01 m. The average error is 5~15 cm, with small error range and high precision. The accumulated position deviation is only 1.67 m. Integrity and environment matching have good performance. This is because by adding keyframe factors and inserting factor graphs to optimize the related variables of the newly added nodes, the drift of pose estimation is reduced. The positioning and mapping precision is relatively high.
-
0. 引言
大块煤矸石精确快速分离是选煤工业的重要环节,高精度的识别是有效分离煤和矸石的前提,将会进一步推动煤矿智能化的发展[1-2]。
传统的煤矸石分选方法主要包括基于
$\text{γ} $ (X)射线[3-4]的煤矸石分选方法、重介法[5] 、干法重介[6]、复合式干法分选法[7]等,上述方法存在安全性不足、环境污染、成本高昂等问题。近年来,随着图像处理技术的迅速发展,许多学者采用计算机视觉技术对煤矸石识别进行研究[8]。何敏等[9]基于支持向量机(Support Vector Machine, SVM)与煤矸石纹理及灰度特征,选取二阶矩、对比度、灰度均值等参数作为训练特征,对煤矸石进行高精度识别。陈立等[10]用小波分析法对采集的煤矸石图像进行降噪处理,通过构造小波矩对煤和矸石进行特征提取分析,利用分类器根据特征参数对煤和矸石进行分选,提高了煤矸石自动分选效率。王家臣等[11]研究证明了基于多特征多光照融合的SVM分类器识别煤矸石效果显著。何江等[12]提出机器视觉的AlexNet网络煤矸石检测系统,预先通过高斯滤波抑制图像噪声,获取辨识度较高的图像,最终经AlexNet网络实现煤矸石的识别与定位。徐志强等[13]基于ResNet与SqueezeNet等轻量级网络建立了煤矸石图像识别模型,以识别精度和模型运算复杂度为评价指标,衡量了压缩前后各模型的测试性能。来文豪等[14]利用多光谱系统采集3个波段并构建伪RGB图像数据集,再利用改进后的YOLOv4[15]模型进行煤矸目标检测,检测煤和矸石的平均精度均值为98.26%。但上述研究都没有考虑到模型的主干网络、特征提取模块及参数量对识别精度的影响。为克服煤矸石识别过程中模型存在的参数量大、特征提取能力差、识别精度低等问题,本文在YOLOX−S模型基础上,添加混合并联注意力模块(Hybrid Parallel Attention Module,HPAM),结合Ghost−S网络改进YOLOX−S模型的主干网络,能够减小网络模型参数量,采用SIOU损失函数替换原有损失函数,提高对目标物的提取能力,自行构建大块煤矸石图像数据集,实现煤矸石图像精准识别。
1. 改进的HPG−YOLOX−S模型
1.1 YOLOX−S模型结构
YOLOX−S模型是对YOLOv3主干网络进行改进,通过各种trick优化而得到的模型,其网络结构由输入端、主干网络、颈部网络层、预测层4个部分构成,该模型框架由CBS(标准卷积(Conv)、批量标准化(Batch Normalization,BN)和激活函数Silu)、SPP(Spatial Pyramid Pooling,空间金字塔池化)、CSP构成,如图1所示。输入端采用Mosaic与Mixup增强方法对数据进行预处理,主干网络采用Darknet53网络结构,颈部网络层利用特征金字塔网络模块将高层特征信息通过上采样方式进行特征融合,预测层通过解耦头将特征融合后输出分为位置、类别概率、置信度3个部分,分别进行计算后得到预测结果,最终将3个不同尺度预测结果输出。
1.2 模型改进
1.2.1 增加HPAM
YOLOX−S在计算输入图像各个通道重要性时,无法依据关键信息比例对不同通道进行不同程度的关注。因此在YOLOX−S模型主干网络中添加HPAM,以增强模型对于重要数据的特征提取与推理能力,增强图像中重要信息且抑制次要信息,并加强主干网络特征提取能力。HPAM由自注意力模块、交叉注意力机制及通道注意力模块构成。自注意力模块是注意力机制的一种变形,旨在减少对外部信息的依赖,尽可能利用特征本身所存在信息进行注意力交互。通过自注意模块对全局上下文信息建模,能够有效捕获长距离上的特征。自注意力模块是将原始特征图映射为查询、键和值3个向量分支。首先计算查询和键的相关性权重矩阵系数,然后利用软操作对权重矩阵进行归一化,最终实现全局上下文信息搜索。交叉注意力机制在图像块内交替注意以捕获局部信息,并应用注意力于单通道特征图所划分的图像块中,依此捕获全局信息。通道注意力模块具有充分利用全局信息能力,该模块自适应的特征选择机制实现不同时段的特征倾向,既避免了通道降维的影响,又大幅降低模型参数量。
1.2.2 改进的轻量化Ghost−S网络架构
针对原卷积核难训练的问题,观察到解耦头模块中3个分支特征向量都具有高维度特征,因此利用1×1小卷积将输入特征分为并行结构,从而将串行传输的CBS结构设计为并行传输,最终提升模型的推理速度。改进后的CBS模块由Conv、BN和激活函数SIOU组成,替换了原CBS模块中的Silu。
为减小模型主干网络的残差块中前后通道之间的差异并增强对特征的提取能力,对主干网络中的残差块进行改进,改进后的结构如图2所示。
YOLOX−S模型主干网络结构构建了自上而下和自底向上的双向结构,但存在网络层级间特征利用率低的问题,易产生大量冗余信息,从而导致模型特征融合不足。因此,将YOLOX−S模型主干网络替换为轻量化Ghost−S网络架构,提高特征融合能力与利用率,减少冗余信息,如图3所示。Ghost−S网络结构与HPAM组合为HPG(Hybrid Parallel Ghost−S)。
1.2.3 改进的损失函数
因胶带煤矸石类别目标图像与背景相似,当多目标运动时会存在重叠和遮挡问题,使得二者难以区分。在模型训练过程中,存在背景负样本数量过多的问题,导致模型对前景正样本目标学习不足。为解决YOLOX−S模型检测与定位精度低的问题,本文在预测层解耦头中引入激活函数SIOU替换原有损失函数,以改善所需真实框与预测框之间不匹配情况,提升检测与定位精度。SIOU损失函数包含框损失与分类损失2个部分。
$$ L = {W_{{\text{box}}}}{L_{{\text{box}}}} + {W_{{\text{cls}}}}{L_{{\text{cls}}}} $$ (1) $$ {L_{{\text{box}}}} = 1 - I + \frac{{\Delta + \Omega }}{2} $$ (2) $$ I = \frac{{\left| {B \cap {B^{{\rm{GT}}}}} \right|}}{{\left| {B \cup {B^{{\rm{GT}}}}} \right|}} $$ (3) 式中:L为SIOU损失函数;
$ {W_{{\text{box}}}},{W_{{\text{cls}}}} $ 分别为框损失、分类损失权重;Lbox,Lcls分别为框损失函数、分类损失函数;I为交并比;$ \Delta $ 为距离损失;$ \Omega $ 为形状损失;B为预测候选框;BGT为真实边框。2. 基于HPG−YOLOX−S模型的煤矸石检测
2.1 试验数据采集
生产现场因灯光等外部因素导致采集的图像中存在高斯、泊松等噪声。本次试验搭建暗箱模拟仿真平台,利用图像采集软件i−SPEED Suite通过USB3.0接口控制Olympus高动态相机,将设备参数调试至最佳,然后开始采集数据。在采集数据时,调节补光灯至适宜的角度与亮度,以提升图像中煤矸石对比度,抑制胶带背景干扰的影响。试验仿真硬件平台为服务器,处理器为Intel(R) Xeon(R) Silver 4214,固态硬盘容量为1 TB,机械硬盘容量为2 TB,显卡为4张Quadro RTX6000,共计96 GB显存。编程语言为Python,深度学习框架为Pytorch1.8,CUDA版本为10.2,CUDNN版本为7.6.5。试验煤样粒度为50~180 mm。
2.2 数据预处理
所拍摄煤矸石视频内存约为20 GB,通过Python脚本从视频中固定帧数截取图像,得到静态图像2000张。目标总数为8482,其中标签为煤的数量为7842,标签为矸石的数量为1640。将自建数据集按8∶1∶1划分为训练集、测试集、验证集。通过分析发现煤矸石数据样本少、类别不平衡,难以满足需求,导致过拟合风险,因此通过采用水平翻转、随机旋转90°及HSV变换操作对数据集进行扩充,统一处理为960×960图像输入至模型。
2.3 HPG−YOLOX−S模型训练
在模型训练过程中,采用冻结训练方式可提高训练效率,还能防止权值损坏。在冻结阶段,模型主干网络被冻结,而特征提取模块不变。在解冻阶段,模型主干网络不被冻结,特征提取模块与网络所有参数发生改变。试验中优化器选用AdaBound,训练集图像1个训练批次包含16张图像,1个训练周期包含80个训练批次,设学习率为0.002,动量值为0.88,总共训练300个周期。
采用精确率、准确率、召回率、F1值、模型参数量作为评价指标。在统计学中F1值是用来衡量二分类模型精确度的指标。
$$ P = \frac{{{N_{{\text{TP}}}}}}{{{N_{{\text{TP}}}} + {N_{{\text{FP}}}}}} $$ (4) $$ A = \frac{{{N_{{\text{TP}}}}+N_{{\text{FN}}}}}{{{N_{{\text{TP}}}} + {N_{{\text{FP}}}}}+{N_{{\text{TN}}}}+{N_{{\text{FN}}}}} $$ (5) $$ R = \frac{{{N_{{\text{TP}}}}}}{{{N_{{\text{TP}}}} + {N_{{\text{FN}}}}}} $$ (6) $$ F_1 = \frac{{2PR}}{{P + R}} $$ (7) 式中:P为精确率;NTP为被预测为正样本的正样本数量;NFP为被预测为正样本的负样本数量;A为准确率;NTN为被预测为负样本的负样本数量;NFN为被预测为负样本的正样本数量;R为召回率。精确率P越高,则检测的准确度越高;召回率R越高,则漏检率越低;F1值越高,则检测效果越好。
利用浮点运算数(Float Operation Per Second,FLOPs)来衡量算法或模型复杂度。
$$ F = 2hw({C_{{\rm{in}}}}{K^2} + 1){C_{{\rm{out}}}} $$ (8) $$ f = \left( {2M - 1} \right)D $$ (9) $$ S = K^2 C_{{\rm{in}}} C_{{\rm{out}}} $$ (10) 式中:F,f分别为卷积层. 全连接层浮点运算数;h,w分别为输入特征图的高度、宽度;Cin,Cout分别为输入、输出特征图通道数;K为卷积核大小;M为输入的维度数量;D为输出的维度数量;S为在不考虑偏置条件下模型的参数量。
3. 试验结果分析
为验证本文所提方法对大块煤矸石的检测效果,将HPG−YOLOX−S模型与YOLOX−S模型进行对比,结果见表1。可看出HPG−YOLOX−S模型对大块煤识别准确率为99.53%,对矸石识别准确率为99.60%,较YOLOX−S模型分别提高了2.51%,1.27%。
表 1 表1 对大块煤矸石的检测效果Table 1. Detection effect of bulk coal-gangue模型 类别 准确率/% YOLOX−S 煤 97.09 矸石 98.35 HPG−YOLOX−S 煤 99.53 矸石 99.60 为验证本文所提方法的有效性,将HPG−YOLOX−S模型与YOLOX−S,YOLOX−M,YOLOX−L模型作对比,试验结果见表2。可看出HPG−YOLOX−S模型精确率达96.8%,较YOLOX−S,YOLOX−M,YOLOX−L模型分别提高了5.68%,9.75%,8.16%;HPG−YOLOX−S模型召回率达94.5%,较YOLOX−S,YOLOX−M,YOLOX−L模型分别提高了3.51%,14.5%,11.1%,HPG-YOLOX−S模型的F1值达95.8%,较YOLOX−S,YOLOX−M,YOLOX−L模型分别提高了2.91%,0.95%,10.75%。这是因为HPG−YOLOX−S模型在一定程度上改善了原模型特征融合不充分的问题,增强图像中重要信息且抑制次要信息,并加强主干网络的特征提取能力。HPG−YOLOX−S模型参数为量7.8 MB,较YOLOX−S,YOLOX−M,YOLOX−L模型分别降低了1.2,4.5,6.7 MB。
表 2 模型性能参数对比结果Table 2. Comparison results of the model performance parameters检测模型 精确率/% 召回率/% F1值/% 参数量/MB YOLOX−S 91.6 91.3 93.1 9.0 YOLOX−M 88.2 82.5 94.9 12.3 YOLOX−L 89.5 85.1 86.5 14.5 HPG−YOLOX−S 96.8 94.5 95.8 7.8 为进一步验证本文所提方法的可行性,分别采用不同改进策略模块进行消融试验,结果见表3。可看出在YOLOX−S模型中添加HPAM后,平均精度均值(mean Average Precision,mAP)为93.6%,较YOLOX−S模型提高了3.43%,说明引入HPAM可有效增强模型对煤矸石目标重要信息的提取。在YOLOX−S模型中增加HPAM,利用轻量化Ghost−S网络替换原模型主干网络后,mAP为94.2%,较YOLOX−S模型提高了4.09%,说明在一定程度上改善了YOLOX−S模型特征融合不充分的问题。在YOLOX−S模型中增加HPAM,利用轻量化Ghost−S网络替换原模型主干网络,将SIOU损失函数替换原有损失函数后,mAP为98.8%,较YOLOX−S模型的mAP提高了9.17%,说明HPG−YOLOX−S模型可有效提升模型整体性能。
表 3 消融试验结果Table 3. Ablation test results模型 模块3 mAP/% HPAM Ghost−S SIOU YOLOX−S × × × 90.5 √ × × 93.6 √ √ × 94.2 √ √ √ 98.8 为直观验证HPG−YOLOX−S模型的有效性,挑选测试集中具有代表性的图像来进行测试,测试结果如图4所示。可看出HPG−YOLOX−S模型能精确识别出对应的煤与矸石,总体煤矸石识别精度较YOLOX−S模型提高了2.3%,更符合实际工业生产应用需求。
为更加深入地认识神经网络训练过程机理,采用热力图可视化策略,更加清晰地展现学习过程。Grad−CAM是一种基于梯度定位的可视化策略,是以热力图的形式阐释深度模型黑箱的分类原理,通过计算模型最终的卷积层中特征图类别权重,得到所有特征图的加权和,将加权和的特征图映射到原始图像中并依据图像的像素做最终类别判断。
通过全局平均池化层获得煤矸石类别对最后卷积层输出每个特征图通道权重,进而计算出CAM类激活热力图,显示原始图像中指定类别重点关注特征区域。分析Grad−CAM对煤矸石图像自动提取的特征,有利于更深入了解网络对被识别类别关注区域的作用机制,从而得到反馈,进一步优化模型。
根据热力图的可视化策略,对改进前后模型检测过程进行可视化处理,结果如图5所示。可看出HPG−YOLOX−S模型较YOLOX−S模型覆盖面更广,更关注煤与矸石的纹理与轮廓等表面差异,对煤矸石目标的全局关注度更加显著。
4. 结论
(1) HPG−YOLOX−S模型对大块煤的识别准确率为99.53%,对矸石的识别准确率为99.60%,较YOLOX−S模型分别提高了2.51%、1.27%。
(2) HPG−YOLOX−S模型的精确率、召回率和F1值均在94%以上,较YOLOX−S模型分别提高了5.68%,3.51%,2.91%。这是因为HPG−YOLOX−S模型在一定程度上改善了原模型特征融合不充分的问题,增强图像中重要信息且抑制次要信息,并加强主干网络的特征提取能力。HPG−YOLOX−S模型的参数量为7.8 MB,较YOLOX−S模型降低了1.2 MB。
(3) HPG−YOLOX−S模型的mAP为98.8%,较YOLOX−S模型提高了9.17%,说明HPG−YOLOX−S模型可有效提升模型的整体性能。
(4) HPG−YOLOX−S模型较YOLOX−S模型的总体煤矸石识别精度提高了2.3%,更符合实际工业生产需求。
(5) 基于热力图可视化试验结果,HPG−YOLOX−S模型关注煤与矸石的纹理和轮廓等表面差异,对煤矸石目标的全局关注度更加显著。
-
表 1 实测数据
Table 1 Measured data
数据集 地物
类型移动
目标轨迹
长度/m高差/cm 最大位移
速度/(m·s−1)煤矿巷道A 防护装置 无 279 15 0.8 楼道走廊B 室内建筑 少量 221 10 1.5 表 2 3种方法的累计误差
Table 2 Cumulative error of there methods
场景 方法 ΔX/m ΔY/m ΔZ/m 位置
偏差/mA LeGO−LOAM 13.10 16.56 44.39 49.16 LIO−SAM 2.10 1.88 3.04 4.15 本文方法 1.65 1.75 1.74 2.97 B LeGO−LOAM 1.42 1.13 2.33 2.95 LIO−SAM 2.21 3.15 1.05 3.99 本文方法 0.94 0.94 1.01 1.67 -
[1] 文虎,刘洋,郑学召,等. 矿山救援机器人群设计[J]. 工矿自动化,2019,45(9):34-39. DOI: 10.13272/j.issn.1671-251x.17476 WEN Hu,LIU Yang,ZHENG Xuezhao,et al. Design of mine rescue robot group[J]. Industry and Mine Automation,2019,45(9):34-39. DOI: 10.13272/j.issn.1671-251x.17476
[2] 翟国栋,任聪,王帅,等. 多尺度特征融合的煤矿救援机器人目标检测模型[J]. 工矿自动化,2020,46(11):54-58. DOI: 10.13272/j.issn.1671-251x.2020050033 ZHAI Guodong,REN Cong,WANG Shuai,et al. Object detection model of coal mine rescue robot based on multi-scale feature fusion[J]. Industry and Mine Automation,2020,46(11):54-58. DOI: 10.13272/j.issn.1671-251x.2020050033
[3] 孙金礼,陈杰. 煤矿井下巷道贯通测量精度分析及技术方法[J]. 煤炭科学技术,2010,38(6):112-114,66. DOI: 10.13199/j.cst.2010.06.72.sunjl.025 SUN Jinli,CHEN Jie. Analysis and technical method of linkage survey accruacy for underground mine roadway[J]. Coal Science and Technology,2010,38(6):112-114,66. DOI: 10.13199/j.cst.2010.06.72.sunjl.025
[4] 胡建胜. 煤矿全站仪导线测量误差分析及技术措施研究[J]. 能源技术与管理,2018,43(4):170-172. DOI: 10.3969/j.issn.1672-9943.2018.04.070 HU Jiansheng. Study on error analysis and technical measures of total station traverse measurement in coal mine[J]. Energy Technology and Management,2018,43(4):170-172. DOI: 10.3969/j.issn.1672-9943.2018.04.070
[5] LI D,YAO Yuan,SHAO Zhenfeng,et al. From digital earth to smart earth[J]. Chinese Science Bulletin,2014,59(8):722-733. DOI: 10.1007/s11434-013-0100-x
[6] 蒋萍. LiDAR/IMU组合导航定位算法研究[D]. 南昌: 南昌大学, 2021. JIANG Ping. Research on LiDAR/IMU integrated navigation and positioning algorithm[D]. Nanchang: Nanchang University, 2021.
[7] CHEN Chi,YANG Bisheng,TIAN Mao,et al. Automatic registration of vehicle-borne mobile mapping laser point cloud and sequent panoramas[J]. Acta Geodaetica et Cartographica Sinica,2018,47(2):215.
[8] 陈先中,刘荣杰,张森,等. 煤矿地下毫米波雷达点云成像与环境地图导航研究进展[J]. 煤炭学报,2020,45(6):2182-2192. DOI: 10.13225/j.cnki.jccs.zn20.0316 CHEN Xianzhong,LIU Rongjie,ZHANG Sen,et al. Development of millimeter wave radar imaging and SLAM in underground coal mine environment[J]. Journal of China Coal Society,2020,45(6):2182-2192. DOI: 10.13225/j.cnki.jccs.zn20.0316
[9] DEBEUNNE C,VIVET D. A review of visual-LiDAR fusion based simultaneous localization and mapping[J]. Sensors(Basel,Switzerland),2020,20(7):2068.
[10] CADENA C,CARLONE L,CARRILLO H,et al. Past,present,and future of simultaneous localization and mapping:toward the robust-perception age[J]. IEEE Transactions on Robotics,2016,32(6):1309-1332. DOI: 10.1109/TRO.2016.2624754
[11] 种一帆,冀杰,宫铭钱,等. 半直接法与IMU融合的双目视觉里程计[J]. 西南师范大学学报(自然科学版),2021,46(2):112-120. CHONG Yifan,JI Jie,GONG Mingqian,et al. A stereo visual odometry aided by IMU based on semi-direct method[J]. Journal of Southwest China Normal University(Natural Science Edition),2021,46(2):112-120.
[12] ZHANG Ji,SINGH S. Low-drift and real-time lidar odometry and mapping[J]. Autonomous Robots,2017,41(2):401-416. DOI: 10.1007/s10514-016-9548-2
[13] 周治国,曹江微,邸顺帆. 3D激光雷达SLAM算法综述[J]. 仪器仪表学报,2021,42(9):13-27. DOI: 10.19650/j.cnki.cjsi.J2107897 ZHOU Zhiguo,CAO Jiangwei,DI Shunfan. Overview of 3D Lidar SLAM algorithms[J]. Chinese Journal of Scientific Instrument,2021,42(9):13-27. DOI: 10.19650/j.cnki.cjsi.J2107897
[14] SHAN T X, ENGLOT B, MEYERS D, et al. LIO-SAM: tightly-coupled lidar inertial odometry via smoothing and mapping[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS), Las Vegas, 2021: 5135-5142.
[15] HEMANN G, SINGH S, KAESS M. Long-range GPS-denied aerial inertial navigation with LIDAR localization[C]. IEEE/RSJ International Conference on Inetlligent Robots & Systems, Daejeon, 2016: 1659-1666.
[16] YE Haoyang, CHEN Yuying, LIU Ming, et al. Tightly coupled 3d lidar inertial odometry and mapping[C]. International Conference on Robotics and Automation(ICRA), Montreal, 2019: 3144-3150.
[17] GENTIL C L,VIDAL-CALLLEJJA T,HUANG Shoudong. IN2LAAMA:inertial lidar localization autocalibration and mapping[J]. IEEE Transactions on Robotics,2021,37(1):275-290. DOI: 10.1109/TRO.2020.3018641
[18] KULKARNI M, DHARMADHIKARI M, TRANZATTO M, et al. Autonomous teamed exploration of subterranean environments using legged and aerial robots[C]. International Conference on Robotics and Automatioan(ICRA), Philadelphia, 2022: 3306-3313.
[19] FRANK N, TILMAN K, ROBERT K, et al. Mc2SLAM: real-time inertial lidar odometry using two-scan motion compensation[C]. German Conference on Pattern Recognition, Cham, 2018: 60-72.
[20] REN Zhuli,WANG Liguan,BI Lin. Robust GICP-based 3D LiDAR SLAM for underground mining environment[J]. Sensors (Basel Switzerland),2019,19(13):2915. DOI: 10.3390/s19132915
[21] SHAN Tixiao, ENGLOT B. LeGO-LOAM: lightweight and ground-optimized lidar odometry and mapping on variable terrain[C]. IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, 2019: 4758-4765.
[22] ZHAO Yue,ZHANG Jian,FU Chiwing,et al. KD-Box:line-segment-based KD-tree for interactive exploration of large-scale time-series data[J]. IEEE Transactions on Visualization and Computer Graphics,2021,28(1):890-900.
-
期刊类型引用(8)
1. 赵栓峰,王力,李小雨,邢志中. 电荷耦合频响多光谱反演网络的煤矸石检测方法. 西安科技大学学报. 2025(01): 117-128 . 百度学术
2. 郑松涛,孙志鹏,陶虹京. 基于GSP-YOLO煤矸石检测算法研究. 山西焦煤科技. 2024(02): 6-10+14 . 百度学术
3. 燕碧娟,王凯民,郭鹏程,郑馨旭,董浩,刘勇. 基于YOLOv5s-FSW模型的选煤厂煤矸检测研究. 工矿自动化. 2024(05): 36-43+66 . 本站查看
4. 王平,冯锦鹏,赵彦成,钮涛,刘国锋. TDS智能干选系统分选灵活性智能控制技术. 工矿自动化. 2024(S1): 174-178 . 本站查看
5. 杨洋,李海雄,胡淼龙,郭秀才,张会鹏. 基于YOLOv5-SEDC模型的煤矸分割识别方法. 工矿自动化. 2024(08): 120-126 . 本站查看
6. 高琳,于鹏伟,董红娟,梁朝辉,张志远. 基于机器视觉的煤矸石识别方法综述. 科学技术与工程. 2024(26): 11039-11049 . 百度学术
7. 郑道能. 一种改进的tiny YOLO v3煤矸石快速识别模型. 工矿自动化. 2023(04): 113-119 . 本站查看
8. 韩刚,解嘉豪,秦喜文,王星,郝晓琦. 基于图像识别技术的冲击地压危险区域智能化评价方法. 工矿自动化. 2023(12): 77-86+93 . 本站查看
其他类型引用(3)