Mining shovel detection algorithm based on improved YOLOv7
-
摘要:
针对现有基于深度学习的电铲检测方法未能很好地平衡检测速度与检测精度的问题,提出了一种改进YOLOv7模型,并将其用于矿用电铲检测。该模型以YOLOv7模型为基础,在主干网络中采用轻量化GhostNet网络进行特征提取,在颈部网络中采用轻量级GSConv替换部分普通卷积,以减少模型参数量和计算量,提高模型检测速度;考虑到轻量化改进后模型参数量减少对特征信息提取能力的影响,在不增加计算量的前提下,对颈部网络进行进一步改进,在扩展高效层聚合网络(ELAN)中嵌入坐标注意力机制(CA),同时利用双向特征金字塔网络(BiFPN)改进路径聚合网络(PANet),以提高网络对特征信息的提取能力,进而有效提高模型检测精度。实验结果表明,与YOLOv7模型相比,改进YOLOv7模型的参数量减少了75.4%,每秒浮点运算次数减少了82.9%,检测速度提高了24.3%;相较于其他目标检测模型,改进YOLOv7模型在检测速度和检测精度方面取得了良好的平衡,满足在露天煤矿场景下对电铲进行实时、准确检测的需求,为嵌入到移动设备中提供了有利条件。
Abstract:The existing deep learning based shovel detection methods fail to balance detection speed and precision well. In order to solve the above problem, an improved YOLOv7 model is proposed and applied to mining shovel detection. This model is based on the YOLOv7 model, using a lightweight GhostNet network for feature extraction in the backbone network. This model replaces some ordinary convolutions with lightweight GSConv in the neck network to reduce the number of model parameters and computation, and improve the detection speed of the model. Considering the impact of reduced model parameters on feature information extraction capability after lightweight improvement, the neck network is further improved without increasing computational complexity. The coordinate attention mechanism (CA) is embedded in the extended efficient layer aggregation network (ELAN). The bidirectional feature pyramid network (BiFPN) is used to improve path aggregation network (PANet) to enhance the network's capability to extract feature information. Furthermore, it effectively improves the precision of model detection. The experimental results show that compared with the YOLOv7 model, the improved YOLOv7 model reduces the number of parameters by 75.4%, reduces the number of floating-point operations per second by 82.9%, and improves the detection speed by 24.3%. Compared with other object detection models, the improved YOLOv7 model achieves a good balance between detection speed and precision, meeting the demand for real-time and accurate detection of electric shovels in open-pit coal mine scenarios. It provides favorable conditions for embedding into mobile devices.
-
0. 引言
人工收放电缆是矿山作业背景下的常规电缆卷放方式,其缺点是易导致电铲施工效率降低,且当工作人员操作不及时会产生安全隐患[1]。跟随电铲移动的新型电缆卷放车能够有效降低由于电铲行走作业碾压所引起的电缆拖拽损坏和接头老化的现象[2-3],大大提高了电铲使用安全性。为达到电缆卷放车依据电铲移动情况合理收放电缆的目的,需对电铲进行实时检测。
传统电铲检测方法是遥控电缆人员利用人眼观察前方电铲姿态,遥控电缆人员需与电铲司机协同作业,消耗大量时间,难以满足对电铲实时、准确检测的需求。目前,基于深度学习的目标检测网络得到广泛应用[4-6]。文献[7]利用SqueezeNet卷积神经网络对车辆颜色进行识别,模型运算速度得到明显提升,但由于模型参数过少,导致其对于复杂问题的表达能力较弱。文献[8-10]利用MobileNetV3作为模型主干网络,虽然运算量显著减少,但提取特征不明显,检测精度低。文献[11-13]使用高效的轻量化ShuffleNetV2作为主干网络,通过在分组卷积中重新排列组间通道信息增加组间关联度,但密集卷积需要更多的计算资源,造成检测效率降低。文献[14]采用RFB−Bottleneck架构改进颈部网络,并引入GhostConv替换普通卷积,虽然模型大小在一定程度上有所改善,但检测速度明显下降。
上述算法未能很好地平衡检测速度与检测精度之间的关系,难以满足对矿用电铲实时、准确检测的需要。因此,本文在YOLOv7模型的基础上进行改进,提出一种改进YOLOv7模型,用于矿用电铲检测。在主干网络中利用GhostNet网络对输入图像进行特征提取,在颈部网络中利用轻量级GSConv代替部分普通卷积,实现模型轻量化,提升检测速度;考虑到轻量化改进后模型参数量减少对特征信息提取能力的影响,在扩展高效层聚合网络(Extended Efficient Layer Aggregation Network,ELAN)中添加坐标注意力机制(Coordinate Attention Mechanism,CA),并利用双向特征金字塔网络(Bidirectional Feature Pyramid Network,BiFPN)改进路径聚合网络(Path Aggregation Network,PANet),改善模型对目标特征信息表达能力较弱的问题,提高检测精度。
1. YOLOv7模型
YOLOv7模型利用输入网络、主干网络、颈部网络和头部网络的相互作用实现检测效率和检测精度之间的平衡[15]。输入网络是整个模型的预处理阶段,采用Mosaic和Mixup图像增强技术扩充数据集,再通过Resize方法将输入图像统一为640×640大小,满足主干网络对输入图像大小的要求。主干网络和颈部网络采用CBS模块(由卷积Conv、批处理归一化BN和SiLU激活函数组成)、SPPCSPC模块(空间金字塔池化结构SPP和跨阶段局部网络CSPNet相结合)、ELAN模块(多个CBS模块进行多分支堆叠)和MP模块(最大池化层MaxPool和CBS模块相结合)进行特征提取,并利用PANet扩张与压缩图像大小进行多尺度特征融合,增强网络学习能力,以获取有效特征层。头部网络是模型的检测部分,采用重参数化(Rep)结构来调整头部网络输出特征图像的通道数量,并利用1×1卷积进行检测。
2. 改进YOLOv7模型
改进YOLOv7模型网络结构如图1所示,其中红色方框和红色箭头表示改进部分,nclass为类别数量。主干网络采用GhostNet轻量化网络对输入进行初步特征信息提取。在颈部网络中,将YOLOv7模型中利用不同大小池化核进行并行最大池化处理的SPPCSPC模块替换为利用相同大小池化核进行串行最大池化处理的SPPFCSPC模块,可在保持感受野不变的情况下提升速度;在此基础上引入GSConv替换SPPFCSPC模块中卷积核大小为3的普通卷积,组成SPPFCSPC−G模块,同时使用GSConv替代不改变特征图大小只改变特征图通道数量的普通卷积,进一步降低模型参数量、计算复杂度,以达到实时检测效果;采用嵌入CA并融合GSConv的ELAN−GC模块替换YOLOv7模型中的ELAN模块,使网络更加关注有用的特征信息;将YOLOv7模型MP模块中卷积核大小为3的卷积修改为GSConv组成的MP−G模块;利用BiFPN对PANet进行改进,提高目标检测能力,解决轻量化网络造成模型检测精度下降的问题。
2.1 GhostNet网络
YOLOv7主干网络中采用大量卷积进行特征提取,导致计算复杂度增加,影响模型检测速度。GhostNet网络是典型的轻量级卷积神经网络,利用“减半”卷积操作来保留通道间交互信息[16],相比普通卷积浮点运算量大幅度减少,且与具有相同计算量的MobileNetV3相比检测精度更高。该网络由多个Ghost Bottleneck瓶颈结构堆叠而成,其中每个瓶颈结构由Ghost Module组成。Ghost Module结构如图2所示。首先,通过普通的1×1卷积来整合特征,以生成输入特征层的特征浓缩;然后,利用深度可分离卷积来提取与特征浓缩相似的特征图;最后,将这些相似的特征图和原始的特征浓缩进行整合,生成有效特征图。
Ghost Bottleneck瓶颈结构有2种形式,如图3所示。当设置Ghost Bottleneck的步长为1时,直接利用2个Ghost Module增加网络深度;当设置Ghost Bottleneck的步长为2时,在2个Ghost Module间增加1个步长为2的深度可分离卷积(DWConv),用于压缩特征层的宽和高,同时为满足对输出通道数的要求,在残差连接中加入步长为2的深度可分离卷积和步长为1的普通卷积。这2种形式均结合了卷积运算和线性运算,其中线性运算处理可去除冗余的特征层,减少部分卷积操作带来的计算量,进而提高模型对电铲检测的速度。
2.2 GSConv模块
深度可分离卷积有助于减少模型参数量,提升检测速度,但缺点是采用逐通道卷积独立计算会丢失大量通道信息,导致其特征提取能力比普通卷积低,检测精度达不到要求。轻量级GSConv模块将深度可分离卷积和普通卷积结合,能够在保证检测精度稳定的同时降低模型复杂度[17]。
GSConv模块结构如图4所示。首先,对输入特征图进行卷积核大小为1、步长为1的卷积,使通道数由输入通道数${C_{\text{1}}}$变为最终输出通道数${C_{\text{2}}}$的一半;然后,对特征图进行卷积核大小为5、步长为1的深度可分离卷积,保持输出通道数仍为最终输出通道数${C_{\text{2}}}$的一半;最后,将获得的特征图整合并进行通道重排,得到最终输出通道数为${C_{\text{2}}}$的特征图。
在不同位置引入GSConv模块会对最终检测结果产生不同影响。若在主干网络中引入该卷积会加深网络层数,从而加剧对空间信息流的阻力,影响模型检测精度和速度。因此本文在颈部网络中利用GSConv代替普通卷积。
2.3 CA模块
加入GhostNet网络和GSConv模块进行轻量化改进后减少了计算量和参数量,但对特征信息的提取能力也随之下降。为提高目标检测网络的特征提取能力,将注意力机制模块嵌入到卷积神经网络中,以收集训练过程中的重要特征信息。常用的可即插即用的轻量级注意力机制模块有通道注意力机制模块(Squeeze-and-Excitation,SE)[18]和卷积块注意力机制模块(Convolutional Block Attention Module,CBAM)[19]。但SE模块只考虑了通道维度上的注意力,无法捕捉空间维度上的注意力;CBAM模块虽然可从空间和通道2个方面上对图像进行关注,但需要更多计算资源,计算复杂度更高。
CA模块可兼顾通道信息及长距离空间位置信息,且能在避免大量计算开销的前提下进行特征提取[20]。CA模块结构如图5所示。在水平方向和垂直方向上进行平均池化,对2个方向上获得的信息进行合并、卷积、归一化、非线性处理等操作,重新获取空间特征信息,最后利用重新分配权重的方式将空间信息在通道上进行特征整合。CA模块不仅拥有对通道上特征信息的关注度,而且添加了对水平方向和垂直方向2个维度空间位置上特征信息的关注度,有助于网络着重关注电铲及周围障碍物区域,对不必要的背景信息不做关注。
本文将轻量级GSConv模块与CA模块进行融合,改进颈部网络中的ELAN模块(图6(a))。改进方案1:在2个GSConv模块中间直接引入CA模块,如图6(b)所示,通过增加网络深度提高检测精度。改进方案2:将CA模块嵌入在2个相邻的3×3 GSConv模块中间,如图6(c)所示,并保留原始短连接部分,通过增加权重提高检测精度。
通过实验可得2种方案下检测精度均有提升,且提升效果相差不大,但在检测速度上有明显区别。方案1直接加入CA模块,增加了卷积数量,导致网络层次加深,影响检测速度。方案2保持原有短连接部分的同时将CA模块嵌入2个相邻的3×3 GSConv模块中间,相当于在GSConv模块上利用增加权重的方式提升特征提取精度,在不增加额外层次结构的前提下保证了检测精度且提升了检测速度。因此本文采用方案2来改进ELAN模块,可使模型在参数量更少的情况下兼顾保留丰富的语义信息和位置感知信息。
2.4 BiFPN
卷积网络随着层数的叠加可获取更丰富的语义信息,但特征图分辨率降低会造成部分位置信息丢失,这对目标检测的定位任务十分不利。BiFPN可达到充分融合不同分辨率特征图的目的[21],其使用跳跃连接来实现轻量化,通过为网络增加权重的方式来学习更加关键的特征信息。考虑到煤矿现场可能会出现多种障碍物对电缆卷放车跟随电铲移动收放电缆造成影响,需对多目标障碍物进行精准识别。因此,利用BiFPN改进YOLOv7模型中的PANet,将主干网络原始特征信息直接引入到颈部网络的PANet中,进而有效提升检测精度。改进PANet结构如图7所示,其中P3_in,P4_in,P5_in为主干网络进行初步特征提取获得的有效特征信息;P4为融合P5_in上采样信息和P4_in本身有效信息获得的中间特征信息;P3_out,P4_out,P5_out为输出特征信息,传入头部网络进行目标检测。
改进PANet的融合路径:利用上采样获得中间信息,对P5_in上采样后与P4_in堆叠得到P4,再对P4上采样后与P3_in堆叠得到P3_out;利用下采样获得输出信息,对P3_out下采样后融合P4和P4_in本身输入信息得到P4_out,再对P4_out下采样后与P5_in堆叠得到P5_out。最终得到P3_out,P4_out,P5_out作为输出特征层。
3. 实验结果与分析
3.1 实验平台
实验选用Ubuntu18.04操作系统,环境配置为Python3.7+PyTorch1.7.1+CUDA10.1。硬件配置为Intel Xeon Gold 6230 CPU@2.10 GHz×80处理器、内存256 GiB DDR4及4块显存8 GiB的NVIDIA RTX2080Ti GDDR6显卡。
3.2 数据集建立
实验所用数据集通过人为现场拍摄采集,以电缆卷放车的视角采集电铲、人、安全帽、运输车辆、操作工具、油箱及灭火器7类数据集,共500张图像。为进一步增加数据集的丰富性,提高鲁棒性,对原始图像进行水平翻转、改变亮度、Mosaic、Mixup及自校准照明(Self-Calibrated Illumination,SCI)[22]等数据增强处理。水平翻转用于处理电铲处于电缆卷放车不同方位的情况;改变亮度用于处理不同拍摄角度的图像亮度出现差异的情况;Mosaic用于处理目标出现遮挡、扭曲等情况;Mixup用于处理电缆卷放车行进过程中检测图像出现抖动的情况或雨、雾及沙尘天气下检测图像出现模糊的情况;SCI用于处理逆光或低光照下图像不能正常曝光且噪声较强的情况。
3.3 不同轻量化模块不同位置对比实验
为验证轻量化GhostNet网络和轻量级GSConv模块对提高模型检测速度的有效性,在YOLOv7模型不同网络位置引入不同轻量化模块进行实验,结果见表1。
表 1 不同轻量化模块引入不同位置对比实验结果Table 1. Comparative experimental results of different lightweight modules introduced at different positions模型 平均精度/% 参数量/106个 每秒浮点运算次数/109 检测时间/ms YOLOv7 93.56 37.227 105.216 25.1 YOLOv7+GSConv替换主干网络及颈部网络 57.52 24.184 69.444 49.2 YOLOv7+GSConv替换颈部网络 86.32 28.476 91.377 22.3 YOLOv7+GhostNet替换主干网络+GSConv替换颈部网络 88.62 7.392 15.665 14.3 从表1可看出,在YOLOv7模型基础上,使用GSConv替换颈部网络中普通卷积的模型相较于使用其替换主干网络及颈部网络中普通卷积的模型平均精度提高了28.8%,检测时间缩短了26.9 ms;同时在主干网络中引入GhostNet网络和在颈部网络中引入GSConv替换普通卷积的模型相较于YOLOv7模型的参数量减少了80.1%,检测时间缩短了43%。
3.4 不同注意力机制模块对比实验
为验证CA模块和BiFPN对改善模型特征提取能力的有效性,在颈部网络的ELAN模块中分别嵌入SE,CBAM,CA不同注意力机制模块进行对比实验,结果见表2。
表 2 不同注意力机制对比实验结果Table 2. Comparative experimental results of different attention mechanisms模型 平均精度/% 参数量/106个 检测时间/ms YOLOv7 93.56 37.227 25.1 YOLOv7+CA 94.53 37.545 30.5 YOLOv7+SE 93.89 37.456 29.0 YOLOv7+CBAM 94.10 37.712 32.5 YOLOv7+CA+BiFPN 95.12 39.002 33.9 从表2可看出,在YOLOv7模型基础上,使用CA模块的模型相较于使用SE,CBAM模块的模型平均精度均有所提升;使用CA模块同时引入BiFPN的模型检测精度最高,相较于YOLOv7模型的平均精度提高了1.56%。
3.5 模型对比实验
为进一步评估改进YOLOv7模型对电铲检测的性能,与Faster R−CNN,YOLOv3,YOLOv4,YOLOv5,YOLOv7等目标检测模型进行对比实验,结果见表3。
表 3 不同模型对比实验结果Table 3. Comparative experimental results of different models模型 平均精度/% 参数量/106个 每秒浮点运算次数/109 检测时间/ms 帧速率/(帧·s−1) Faster R−CNN 96.43 136.812 369.866 172.4 5.8 YOLOv3 80.52 61.556 155.363 59.7 16.8 YOLOv4 87.12 63.970 142.003 51.3 19.5 YOLOv5 89.25 46.664 114.662 33.2 30.1 YOLOv7 93.56 37.227 105.216 25.1 39.8 改进YOLOv7 91.75 9.143 17.966 19.0 52.6 从表3可看出,典型的两阶段Faster R−CNN模型虽然检测精度最高,但其庞大的模型计算量和参数量导致检测速度十分缓慢,难以达到实时检测的效果;典型的单阶段目标检测YOLOv3,YOLOv4,YOLOv5模型虽然在实时检测上较Faster R−CNN模型有明显改善,但对比改进YOLOv7模型仍存在较大差距,检测速度分别减小了68.1%,62.9%,42.8%;改进YOLOv7模型的平均精度仅比YOLOv7模型低了1.81%,但参数量较YOLOv7模型减少了75.4%,每秒浮点运算次数减少了82.9%,检测速度提高了24.3%。
3.6 实际场景检测效果对比实验
针对露天煤矿场景,使用YOLOv7模型和改进YOLOv7模型进行电铲检测效果对比,结果如图8所示。
由图8可看出,YOLOv7模型和改进YOLOv7模型均可实现电铲检测,但YOLOv7模型针对小目标检测出现多处误检和漏检,如将安全帽误检为操作工具及针对多处操作工具均未检测出,且YOLOv7模型对电铲检测的置信度较低,检测效果不佳;改进YOLOv7模型对小目标能够实现准确检测,同时对电铲检测的置信度可达0.85以上。
4. 结论
1) 以YOLOv7模型为基础,提出了一种改进YOLOv7模型用于矿用电铲检测。该改进模型将GhostNet轻量化网络作为主干网络,使用GSConv轻量级卷积替换颈部网络中的部分普通卷积,以加快模型检测速度;在颈部网络中将CA模块引入ELAN模块,并利用BiFPN改进PANet,以提高网络对特征信息的提取能力,改善模型检测精度。
2) 实验结果表明,改进YOLOv7模型在保证检测精度的前提下,模型参数量和计算量少、检测时间短、检测速度快,为后续将其部署到移动设备中提供了条件。
-
表 1 不同轻量化模块引入不同位置对比实验结果
Table 1 Comparative experimental results of different lightweight modules introduced at different positions
模型 平均精度/% 参数量/106个 每秒浮点运算次数/109 检测时间/ms YOLOv7 93.56 37.227 105.216 25.1 YOLOv7+GSConv替换主干网络及颈部网络 57.52 24.184 69.444 49.2 YOLOv7+GSConv替换颈部网络 86.32 28.476 91.377 22.3 YOLOv7+GhostNet替换主干网络+GSConv替换颈部网络 88.62 7.392 15.665 14.3 表 2 不同注意力机制对比实验结果
Table 2 Comparative experimental results of different attention mechanisms
模型 平均精度/% 参数量/106个 检测时间/ms YOLOv7 93.56 37.227 25.1 YOLOv7+CA 94.53 37.545 30.5 YOLOv7+SE 93.89 37.456 29.0 YOLOv7+CBAM 94.10 37.712 32.5 YOLOv7+CA+BiFPN 95.12 39.002 33.9 表 3 不同模型对比实验结果
Table 3 Comparative experimental results of different models
模型 平均精度/% 参数量/106个 每秒浮点运算次数/109 检测时间/ms 帧速率/(帧·s−1) Faster R−CNN 96.43 136.812 369.866 172.4 5.8 YOLOv3 80.52 61.556 155.363 59.7 16.8 YOLOv4 87.12 63.970 142.003 51.3 19.5 YOLOv5 89.25 46.664 114.662 33.2 30.1 YOLOv7 93.56 37.227 105.216 25.1 39.8 改进YOLOv7 91.75 9.143 17.966 19.0 52.6 -
[1] 王劲泽. 浅析如何提高露天矿供电系统可靠性[J]. 内蒙古煤炭经济,2017(11):22-23. WANG Jinze. How to improve the reliability of power supply system in open pit mine[J]. Inner Mongolia Coal Economy,2017(11):22-23.
[2] 郭安斌,苏红俊,闫孝姮. 基于 UWB 技术的矿山电铲定位算法研究[J]. 工矿自动化,2020,46(12):95-100. GUO Anbin,SU Hongjun,YAN Xiaoheng. Research on positioning algorithm of electric mine shovel based on UWB technology[J]. Industry and Mine Automation,2020,46(12):95-100.
[3] 曹连民,崔久龙,刘现文,等. 连续采煤机电缆卷放装置设计[J]. 煤矿机械,2019,40(6):108-111. CAO Lianmin,CUI Jiulong,LIU Xianwen,et al. Design of cable release device for continuous shearer[J]. Coal Mine Machinery,2019,40(6):108-111.
[4] 南晓虎,丁雷. 深度学习的典型目标检测算法综述[J]. 计算机应用研究,2020,37(增刊2):15-21. NAN Xiaohu,DING Lei. Review of typical target detection algorithms for deep learning[J]. Application Research of Computers,2020,37(S2):15-21.
[5] 赵学军,李建. 一种基于深度学习的煤矸石检测方法[J]. 矿业科学学报,2021,6(6):730-736. ZHAO Xuejun,LI Jian. A method of coal gangue detection based on deep learning[J]. Journal of Mining Science and Technology,2021,6(6):730-736.
[6] 李亚辉,刘俊. 基于轻量级深度网络的目标识别方法[J]. 计算机应用研究,2020,37(3):919-923. LI Yahui,LIU Jun. Object recognition method based on lightweight depth network[J]. Application Research of Computers,2020,37(3):919-923.
[7] 李坤伦,魏泽发,宋焕生. 基于SqueezeNet卷积神经网络的车辆颜色识别[J]. 长安大学学报(自然科学版),2020,40(4):109-116. LI Kunlun,WEI Zefa,SONG Huansheng. Vehicle color recognition based on SqueezeNet[J]. Journal of Chang'an University (Natural Science Edition),2020,40(4):109-116.
[8] 廖慕钦. 基于深度学习的智能交通车辆检测与跟踪[D]. 长沙:中南林业科技大学,2021. LIAO Muqin. Intelligent transportation vehicle detection and tracking based on deep learning[D]. Changsha:Central South University of Forestry and Technology,2021.
[9] DENG Tianmin,WU Yongjun. Simultaneous vehicle and lane detection via MobileNetV3 in car following scene[J]. Plos One,2022,17(3). DOI: 10.1371/journal.pone.0264551.
[10] 孔维刚,李文婧,王秋艳,等. 基于改进YOLOv4算法的轻量化网络设计与实现[J]. 计算机工程,2022,48(3):181-188. KONG Weigang,LI Wenjing,WANG Qiuyan,et al. Design and implementation of lightweight network based on improved YOLOv4 algorithm[J]. Computer Engineering,2022,48(3):181-188.
[11] 徐承优. 可用于移动端的轻量级语义分割网络研究及其在盲人视觉辅助中的应用[D]. 杭州:浙江大学,2020. XU Chengyou. Research on lightweight semantic segmentation networks for mobile devices and application in the assistance of the visually impaired[D]. Hangzhou:Zhejiang University,2020.
[12] 宋中山,肖博文,艾勇,等. 基于改进YOLOv4的轻量化目标检测算[J]. 电子测量技术,2022,45(16):142-152. SONG Zhongshan,XIAO Bowen,AI Yong,et al. Improved lightweight YOLOv4 target detection algorithm[J]. Electronic Measurement Technology,2022,45(16):142-152.
[13] 蒋镕圻,叶泽聪,彭月平,等. 针对弱小无人机目标的轻量级目标检测算法[J]. 激光与光电子学进展,2022,59(8):109-120. JIANG Rongqi,YE Zecong,PENG Yueping,et al. Lightweight target detection algorithm for small and weak drone targets[J]. Laser & Optoelectronics Progress,2022,59(8):109-120.
[14] 杨锦辉,李鸿,杜芸彦,等. 基于改进YOLOv5s的轻量化目标检测算法[J]. 电光与控制,2023,30(2):24-30. YANG Jinhui,LI Hong,DU Yunyan,et al. A lightweight object detection algorithm based on improved YOLOv5s[J]. Electronics Optics & Control,2023,30(2):24-30.
[15] WANG C Y,BOCHKOVSKIY A,LIAO H Y M. YOLOv7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Vancouver,2023:7464-7475.
[16] HAN Kai,WANG Yunhe,TIAN Qi,et al. GhostNet:more features from cheap operations[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Seattle,2020:1580-1589.
[17] 张佳璐.基于深度学习的道路车辆检测算法研究[D].临沂:临沂大学,2023. ZHANG Jialu.Road vehicle detection algorithms based on deep learning[D].Linyi:Linyi University,2023.
[18] HU Jie,SHEN Li,SUN Gang. Squeeze-and-excitation networks[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Salt Lake City,2018:7132-7141.
[19] WOO S H,PARK J Y,LEE J Y,et al. CBAM:convolutional block attention module[C]. European Conference on Computer Vision,Munich,2018:3-19.
[20] HOU Qibin,ZHOU Daquan,FENG Jiashi. Coordinate attention for efficient mobile network design[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Nashville,2021:13713-13722.
[21] TAN Mingxing,PANG Ruoming,LE Q V. Efficientdet:scalable and efficient object detection[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Seattle,2020:10781-10790.
[22] MA Long,MA Tengyu,LIU Risheng,et al. Toward fast,flexible,and robust low-light image enhancement[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,New Orleans,2022:5637-5646.
-
期刊类型引用(5)
1. 王新广,李辉. 结合Swin Transformer与MobileNetv3的多源无人机影像目标检测方法. 城市勘测. 2025(01): 27-32 . 百度学术
2. 马克西姆,郭蓉. 基于改进Faster-RCNN算法的软包装印刷缺陷检测研究. 北京印刷学院学报. 2024(03): 28-31+44 . 百度学术
3. 韩璐宇,孟洪兵,李文雪,张焱姝. 基于门控注意机制的轻量化苹果叶部黑星病识别算法研究. 现代农业装备. 2024(05): 47-52+109 . 百度学术
4. 汪峥嵘,樊绍胜. 输电线路间隔棒安装机器人运动控制方法研究. 电力学报. 2024(04): 309-322 . 百度学术
5. 杨文轲,王向前. 基于DETR-SGC算法的煤矿变电所安全防护装备检测. 湖北民族大学学报(自然科学版). 2024(04): 528-532+581 . 百度学术
其他类型引用(1)