Small object detection method for mining face based on improved YOLOv8n
-
摘要: 为有效检测和识别煤矿井下采掘工作面人员是否佩戴安全防护装置,针对井下光照条件差、安全防护装备目标尺寸小且颜色与背景相似等情况,提出了一种基于改进YOLOv8n的采掘工作面小目标检测方法。在YOLOv8n骨干网络C2f模块中融合动态蛇形卷积(DSConv),构建C2f−DSConv模块,以提高模型提取多尺度特征的能力;在Neck层引入极化自注意力(PSA)机制,以减少信息损失,提高特征表达能力;在Head层增设1个专门针对小目标的检测头,形成4检测头结构,以扩大模型检测范围。实验结果表明,改进YOLOv8n模型对井下人员及其所佩戴安全帽、矿灯、口罩、自救器检测的平均精度分别为98.3%,95.8%,89.9%,87.2%,90.8%,平均精度均值为92.4%,优于Faster R−CNN,YOLOv5s,YOLOv7,YOLOv8n模型,且检测速度达208帧/s,满足煤矿井下目标检测精度和实时性要求。Abstract: In order to effectively detect and recognize whether the personnel on the mining face in coal mines are wearing safety protection devices, a small object detection method based on improved YOLOv8n is proposed. It is applied in situations such as poor underground lighting conditions, small object sizes of safety protection device, and similar colors to the background. The method integrates Dynamic Snake Convolution (DSConv) into the C2f module of YOLOv8n backbone network to construct a C2f DSConv module, in order to enhance the model's capability to extract multi-scale features. The method introduces polarized self-attention (PSA) mechanism in the Neck layer to reduce information loss and improve feature expression capability. The method adds one detection head specifically designed for small objects at the Head layer, forming a four detection head structure to expand the detection range of the model. The experimental results show that the improved YOLOv8n model has an average precision of 98.3%, 95.8%, 89.9%, 87.2%, and 90.8% for detecting underground personnel and their safety helmets, mining lights, masks, and self rescue devices, respectively. The average precision is 92.4%, which is better than Faster R-CNN, YOLOv5s, YOLOv7, and YOLOv8n models. The detection speed reaches 208 frames per second, meeting the requirements of object detection precision and real-time performance in coal mines.
-
0. 引言
在煤矿井下采掘工作面,工作人员需佩戴安全防护装备,如安全帽、矿灯、口罩、自救器等[1]。这些装备为人员生命安全提供基本保障。实际生产中,一些人员对安全防护装备的重视程度不够,无法有效地使用这些装备来确保自身安全。目前,煤矿企业主要依靠视频监控系统来监测人员是否正确佩戴防护装备[2]。随着深度学习和人工智能技术的不断发展及应用,采用基于深度学习的计算机视觉算法来检测和识别人员安全装备佩戴情况,可有效降低煤矿安全事故发生概率[3],提高煤矿安全生产水平。
在煤矿井下作业环境中,监控摄像头位置固定,且覆盖范围广泛,拍摄距离大,安全防护装备目标在监控画面中的尺寸较小,加之装备颜色与周围环境相近,易受环境变化影响,增加检测难度。因此,实现煤矿井下场景中小目标(如尺寸小于32×32的目标)精准检测,在人员安全防护装备监测中具有重要意义[4]。
目前,目标检测领域广泛采用卷积神经网络模型,如R−CNN(Region-based Convolutional Neural Networks,基于区域的卷积神经网络)、Fast R−CNN(Fast Region-based Convolutional Neural Networks,快速基于区域的卷积神经网络)、Faster R−CNN(Faster Region-based Convolutional Neural Networks,更快的基于区域的卷积神经网络)、SSD(Single Shot MultiBox Detector,单次检测多框检测器)、YOLO等[5-12]。相较于R−CNN系列模型和SSD模型,YOLO系列模型具备出色的高速性能、端到端训练、多尺度融合、自适应锚框等特点,能够高效地将底层位置信息和上层语义信息融合,实现目标检测任务的快速、准确、高效执行,已被学者用于煤矿井下目标检测研究中。崔铁军等[13]采用基于Keras框架的YOLOv4目标检测算法,结合MTCNN(Multi-task Convolutional Neural Networks,多任务卷积神经网络)和FaceNet构成人脸识别模型,对人员是否佩戴防尘口罩进行了高精度的快速检测与识别,检测佩戴防尘口罩人员的AP(Average Precision,平均精度)为92.78%、未佩戴防尘口罩人员的AP为91.63%。李熙尉等[14]针对煤矿井下综采工作面煤尘干扰导致的人员和安全帽检测算法精度低、漏检率高等问题,提出了基于改进YOLOv5s的矿井人员和安全帽检测算法,通过引入CBAM(Convolutional Block Attention Module,卷积块注意力模块)更准确地提取图像关键特征,采用αCIoU损失函数替换原始CIoU损失函数来提升整体目标检测的准确率。曹帅等[15]提出了一种基于YOLOv7−SE的煤矿井下小目标检测方法,通过融合模拟退火算法和k-means++聚类算法优化YOLOv7模型中的初始锚框值,增加新的检测层以减少煤尘干扰,并在骨干网络中引入双层注意力机制强化小目标特征表示,对安全帽和自救器检测的AP分别达到72.5%和64.5%。王科平等[16]提出了一种改进的YOLOv4模型,用于检测综采工作面的大型设备及行人目标,通过在CSPDarkNet53网络中融入残差自注意力模块来提升图像关键目标特征的表达能力和目标检测精度,引入深度可分离卷积以减少模型参数量和计算量,检测AP为92.59%。顾清华等[17]提出了一种基于改进YOLOv5的目标检测算法,采用弱光增强网络Zero−DCE提升模型的泛化能力,引入C−ASPP(Cross-scale Atrous Spatial Pyramid Pooling,跨尺度空洞空间金字塔池化)模块、Transformer算法和双向特征融合金字塔网络来提高模型的特征提取能力和检测性能,对井下人员安全防护装备检测的AP为90.2%,检测速度为81.2帧/s。寇发荣等[18]提出一种YOLOv5改进模型——Ucm−YOLOv5,使用PP−LCNet作为主干网络以加强CPU端的推理速度,取消Focus模块,使用shuffle_block模块替代C3模块以减少计算量,并引入H swish作为激活函数,对井下目标的检测精度较YOLOv5提高11.7%。
在背景复杂、光照条件差的采掘工作面恶劣环境下,小目标检测精度仍有待提高。YOLOv8是YOLO系列的最新版本[19],具有更优的性能和灵活性,能更好地应对井下复杂环境中的目标检测任务。YOLOv8n是YOLOv8系列中更小型、更轻量级的变体,专为速度和资源受限的环境设计。本文提出一种基于改进YOLOv8n的采掘工作面小目标检测方法,通过井下实际监控视频图像验证了改进YOLOv8n模型对井下人员及其佩戴安全防护装备检测的AP优于主流目标检测模型,满足采掘工作面小目标检测精度和实时性要求。
1. 改进YOLOv8n模型
改进YOLOv8n模型结构如图1所示,其中H,W,C分别为输入图像长度、宽度、通道数,S为卷积步长,K为卷积核大小,n为模块个数。输入图像在骨干网络(Backbone)层通过卷积层提取特征和语义信息,这些信息经改进C2f模块(C2f−DSConv)进行深度融合,以提取多尺度特征,增强对小目标和人体细节的感知能力。在Neck层引入PSA(Polarized Self−Attention,极化自注意力)机制,对特征图进行处理,以减少信息损失,提高特征表达能力,从而更好地定位和识别目标。在Head层增设了专门针对小目标的检测头,以扩大模型检测范围,提升对微小目标的感知能力。
1.1 Backbone层改进
在YOLOv8n模型Backbone层的C2f模块中,Bottleneck结构通常采用固定尺寸的卷积核,且每个卷积核的位置是预先设定的,在处理具有复杂或不规则形状的小目标时精度较差。DSConv(Dynamic Snake Convolution,动态蛇形卷积)的卷积核[20]能够根据输入特征图的形状和边界信息进行自适应调整,从而更精确地适应目标物体的形状,提升复杂或不规则形状小目标的处理能力。因此,将C2f模块中的固定卷积替换为DSConv,得到C2f−DSConv模块,如图2所示。输入数据经CBS(Con−BN−Silu)模块进行卷积操作,再经Split模块分割为2个部分,其中一部分经多个 DSConv 模块处理后,与另一部分融合拼接,最终经CBS模块输出。
DSConv卷积的核心在于引入了变形偏移量,这使得卷积核能更灵活地关注目标物体的复杂几何特征。为了有效控制模型学习过程中的变形偏移,避免感知场过度偏离目标,采用迭代策略,为每个目标选择一系列观察点,确保注意力的连续性,同时防止由于过大的变形偏移导致感知场过度扩散[20]。DSConv卷积不仅能感知并适应目标的几何结构,还能自适应关注弯曲或卷曲的结构特征。在煤矿井下应用场景中,人员安全防护装备可能呈现各种形状和大小,且常与其他背景元素重叠,导致检测困难。DSConv的引入使得模型能更加专注于安全防护装备的关键特征,自由贴合其形状学习特征,且在一定约束条件下确保卷积核不会偏离目标结构太远,从而提高检测的准确性和可靠性。
1.2 Neck层改进
由于井下小目标图像的复杂性,YOLOv8n在处理空间和通道计算时计算量和显存需求急剧增加。为了平衡性能与资源消耗,在YOLOv8n的Neck层引入PSA机制。其核心是通过动态聚焦来减少信息损失[21]。PSA机制有并行和顺序2种布局模式。本文采用并行布局模式,如图3所示。其包含多个卷积层(Conv)、池化层(Global Pooling)、激活函数(Softmax)、重塑层(Reshape),采用多个1×1卷积实现通道极化,并使用不同的重塑和池化操作来处理数据。
PSA机制在空间维度和通道维度均没有进行大规模的压缩。在空间维度上,PSA机制保持原始输入图像的大小H×W;在通道维度上,使用了原始通道数C的一半。这使得模型在处理大量数据时能够保持较高的效率。此外,PSA机制在通道和空间分支均采用Softmax和Sigmoid相结合的函数,使得模型能够拟合出细粒度回归结果的输出分布,从而提高检测的准确性。
1.3 Head层改进
YOLOv8n的Head层有3个检测头,在不同尺度上进行目标检测。由于小目标在不同尺度上可能表现出多样化的特征,较浅的网络结构难以充分捕捉这些细微的差别,且微小目标在图像中的占比较小,难以被模型有效捕捉。针对井下环境中小目标检测需求,在YOLOv8n模型中增加1个专门针对微小目标检测的检测头,形成4检测头结构,如图4所示。Detect1为新增的检测头,用于检测大小为160×160的特征图中4×4以上大小的目标。Detect 2—Detect4为原始YOLOv8n中的检测头,分别检测80×80特征图中8×8、40×40特征图中16×16、20×20特征图中32×32以上大小的目标。
Detect1利用来自底层网络的高分辨率特征图生成预测结果,显著提高了对微小目标的敏感度。Detect1的增加可能导致计算量和内存消耗增大,但由于YOLO系列算法具有高并行性,所以并不会显著影响检测的实时性。与原始的3检测头结构相比,4检测头结构通过更深层次的网络结构来捕获复杂的特征,使模型能够更有效地应对目标尺度变化、遮挡等情况,提升井下小目标检测精度。
2. 实验及结果分析
为验证改进YOLOv8n模型对于井下人员安全防护装备这类小目标的检测性能,在实验室环境下进行实验。实验平台配置见表1。
表 1 实验平台配置Table 1. Experimental platform configuration配置 参数 操作系统 Windows10 CPU Intel Core i7−12700K GPU NVIDIA GeForce RTX 3060 内存 32 GiB GPU加速工具 CUDA11.1 采集江苏省某煤矿综采工作面原始监控视频图像,选取其中1 319张图像,按照9∶1的比例划分,其中1 183张作为训练集、136张作为验证集。采用LabelImg工具标注5个类别,分别为人员(person)、安全帽(helmet)、矿灯(lamp)、口罩(mask)、自救器(self-rescuer),如图5所示。标注后的数据集共有8 273个目标框。
改进YOLOv8n模型训练过程中应用PyTorch框架。设置随机梯度下降初始动量为0.937,权值衰减系数为0.000 5,学习率为0.01。使用余弦衰减率调度器。经过100次训练,得到最优模型。
为了验证DSConv、PSA机制、新增检测头的作用,进行消融实验,结果见表2。
从表2可看出,与改进模型相比,原始YOLOv8n模型的精确率、召回率和mAP50(mean Average Precision at 50% Intersection over Union,50%交并比下的平均精度均值)最低。在C2f模块中引入DSConv后,模型精确率和召回率均超过原始YOLOv8n模型,表明C2f−DSConv能够准确捕获井下人员及其佩戴安全防护装备的特征。采用4检测头结构后,精确率、召回率、mAP50分别提高1.1%,4.2%,2.0%,表明4检测头结构通过在不同尺度上进行检测,增大了模型对目标的覆盖范围。引入PSA机制后,精确率、召回率、mAP50分别达89.3%,91.3%,92.4%,在4组模型中最高,验证了改进方法的有效性。另外,改进YOLOv8n模型的检测速度为208帧/s,满足矿井实时检测要求。
在相同数据集上,将改进YOLOv8n模型与Faster−RCNN,YOLOv5s,YOLOv7,YOLOv8n模型进行对比实验,结果如图6所示。可看出改进YOLOv8n模型对人员及其佩戴4种安全防护装备的检测精度均优于其他模型。
表 2 消融实验结果Table 2. Ablation experiment results% YOLOv8n DSConv 检测头 PSA 精确率 召回率 mAP50 √ × × × 86.9 85.9 89.1 √ √ × × 87.4 89.3 89.7 √ √ √ × 88.0 90.1 91.1 √ √ √ √ 89.3 91.3 92.4 5种模型对各类目标检测的AP见表3。可看出与4种对比模型相比,改进YOLOv8n模型对于各类目标检测的AP均最优,特别是检测矿灯和自救器的AP分别达89.9%和90.8%,较YOLOv8n模型分别提升10.1%和5.7%,且对各类别目标检测的mAP达92.4%。
5种模型的检测性能对比见表4。与Faster R−CNN相比,改进YOLOv8n模型的mAP提高13.2%,且参数量和GFLOPs(Giga Floating Point Operations Per Second,每秒十亿次浮点运算)大幅降低,检测速度提高了201 帧/s。与YOLOv5s和YOLOv7相比,改进YOLOv8n模型的mAP分别提高6.8%和6.1%,检测速度分别提升149,66帧/s。与YOLOv8n相比,改进YOLOv8n模型的参数量和GFLOPs略高,但mAP提高3.3%。实验结果验证了改进YOLOv8n模型能够很好地平衡检测时间和准确性。
表 3 不同目标检测模型对5种类别目标检测的AP对比Table 3. Average precision (AP) comparison of detecting five categories by use of different object detection models% 类别 Faster−
RCNNYOLOv5s YOLOv7 YOLOv8n 改进YOLOv8n 人员 84.2 92.9 94.2 97.7 98.3 安全帽 80.7 90.1 91.7 93.7 95.8 矿灯 68.7 76.6 76.3 79.8 89.9 口罩 74.3 82.9 83.9 86.2 87.2 自救器 73.3 81.7 81.4 85.1 90.8 mAP50 79.2 85.6 86.3 89.1 92.4 表 4 不同目标检测模型的检测性能对比Table 4. Comparison of detection performance of different object detection models模型 参数量/MiB GFLOPs mAP/% 检测速度/(帧·s−1) Faster R−CNN 53.0 887.5 79.2 7 YOLOv5s 7.2 16.0 85.6 59 YOLOv7 36.9 104.7 86.3 142 YOLOv8n 3.0 8.1 89.1 457 改进YOLOv8n 3.4 13.3 92.4 208 3. 结论
1) 改进YOLOv8n模型将DSConv和主干网络的C2f模块融合,提高了模型提取多尺度特征的能力;引入PSA机制,使模型能捕获更多的像素级别信息,提升小目标检测效果;采用4检测头结构,增强了对微小目标的检测能力。
2) 实验结果表明,对井下人员及其所佩戴安全帽、矿灯、口罩、自救器进行检测时,改进YOLOv8n模型的AP分别为98.3%,95.8%,89.9%,87.2%,90.8%,均高于主流目标检测模型Faster R−CNN,YOLOv5s,YOLOv7,YOLOv8n。
3) 未来将着重研究在不显著增加计算负担的前提下,提升模型的识别精度。方案包括:① 增加特征提取网络的深度,从而更有效地提取井下特殊环境中人员与安全防护装备特征。② 利用并行计算来提高分类器计算速度,从而更快地匹配识别的特征。
-
表 1 实验平台配置
Table 1 Experimental platform configuration
配置 参数 操作系统 Windows10 CPU Intel Core i7−12700K GPU NVIDIA GeForce RTX 3060 内存 32 GiB GPU加速工具 CUDA11.1 表 2 消融实验结果
Table 2 Ablation experiment results
% YOLOv8n DSConv 检测头 PSA 精确率 召回率 mAP50 √ × × × 86.9 85.9 89.1 √ √ × × 87.4 89.3 89.7 √ √ √ × 88.0 90.1 91.1 √ √ √ √ 89.3 91.3 92.4 表 3 不同目标检测模型对5种类别目标检测的AP对比
Table 3 Average precision (AP) comparison of detecting five categories by use of different object detection models
% 类别 Faster−
RCNNYOLOv5s YOLOv7 YOLOv8n 改进YOLOv8n 人员 84.2 92.9 94.2 97.7 98.3 安全帽 80.7 90.1 91.7 93.7 95.8 矿灯 68.7 76.6 76.3 79.8 89.9 口罩 74.3 82.9 83.9 86.2 87.2 自救器 73.3 81.7 81.4 85.1 90.8 mAP50 79.2 85.6 86.3 89.1 92.4 表 4 不同目标检测模型的检测性能对比
Table 4 Comparison of detection performance of different object detection models
模型 参数量/MiB GFLOPs mAP/% 检测速度/(帧·s−1) Faster R−CNN 53.0 887.5 79.2 7 YOLOv5s 7.2 16.0 85.6 59 YOLOv7 36.9 104.7 86.3 142 YOLOv8n 3.0 8.1 89.1 457 改进YOLOv8n 3.4 13.3 92.4 208 -
[1] 郝帅,杨晨禄,赵秋林,等. 基于双分支头部解耦和注意力机制的灾害环境人体检测[J]. 西安科技大学学报,2023,43(4):797-806. HAO Shuai,YANG Chenlu,ZHAO Qiulin,et al. Pedestrian detection method in disaster environment based on double branch decoupled head and attention mechanism[J]. Journal of Xi'an University of Science and Technology,2023,43(4):797-806.
[2] 罗南超,郑伯川. 视频监控领域深度特征编码的行人检测算法[J]. 西安科技大学学报,2019,39(4):701-707. LUO Nanchao,ZHENG Bochuan. Deep feature coding for pedestrian detection in video surveillance[J]. Journal of Xi'an University of Science and Technology,2019,39(4):701-707.
[3] 程德强,寇旗旗,江鹤,等. 全矿井智能视频分析关键技术综述[J]. 工矿自动化,2023,49(11):1-21. CHENG Deqiang,KOU Qiqi,JIANG He,et al. Overview of key technologies for mine-wide intelligent video analysis[J]. Journal of Mine Automation,2023,49(11):1-21.
[4] 赵伟,王爽,赵东洋. 基于SD−YOLOv5s−4L的煤矿井下无人驾驶电机车多目标检测[J]. 工矿自动化,2023,49(11):121-128. ZHAO Wei,WANG Shuang,ZHAO Dongyang. Multi object detection of underground unmanned electric locomotives in coal mines based on SD-YOLOv5s-4L[J]. Journal of Mine Automation,2023,49(11):121-128.
[5] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:unified,real-time object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016:779-788.
[6] REDMON J,FARHADI A. YOLO9000:better,faster,stronger[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Honolulu,2017:7263-7271.
[7] REDMON J,FARHADI A. Yolov3:an incremental improvement[EB/OL]. [2024-04-23]. https://pjreddie.com/media/files/papers/YOLOv3.pdf.
[8] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: optimal speed and accuracy of object detection [Z/OL]. [2024-05-23]. https://doi.org/10.48550/arXiv. 2004.10934.
[9] REN Shaoqing,HE Kaiming, GIRSHICK R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[10] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al. Deep residual learning for image recognition[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,2016:770-778.
[11] HUANG Gao,LIU Zhuang,VAN DER MAATEN L,et al. Densely connected convolutional networks[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Honolulu,2017:4700-4708.
[12] HOWARD A G,ZHU Menglong,CHEN Bo,et al. Mobilenets:efficient convolutional neural networks for mobile vision applications[Z/OL]. [2024-04-23]. https://arxiv.org/pdf/1704.04861.
[13] 崔铁军,王凌霄. YOLOv4目标检测算法在煤矿工人口罩佩戴监测工作中的应用研究[J]. 中国安全生产科学技术,2021,17(10):66-71. CUI Tiejun,WANG Lingxiao. Research on application of YOLOv4 object detection algorithm in monitoring on masks wearing of coal miners[J]. Journal of Safety Science and Technology,2021,17(10):66-71.
[14] 李熙尉,孙志鹏,王鹏,等. 基于YOLOv5s改进的井下人员和安全帽检测算法研究[J]. 煤,2023,32(3):22-25. DOI: 10.3969/j.issn.1005-2798.2023.03.006 LI Xiwei,SUN Zhipeng,WANG Peng,et al. Research on underground personnel and safety helmet detection algorithm based on YOLOv5s improvement[J]. Coal,2023,32(3):22-25. DOI: 10.3969/j.issn.1005-2798.2023.03.006
[15] 曹帅,董立红,邓凡,等. 基于YOLOv7−SE的煤矿井下场景小目标检测方法[J]. 工矿自动化,2024,50(3):35-41. CAO Shuai,DONG Lihong,DENG Fan,et al. A small object detection method for coal mine underground scene based on YOLOv7-SE[J]. Journal of Mine Automation,2024,50(3):35-41.
[16] 王科平,连凯海,杨艺,等. 基于改进YOLOv4的综采工作面目标检测[J]. 工矿自动化,2023,49(2):70-76. WANG Keping,LIAN Kaihai,YANG Yi,et al. Target detection of the fully mechanized working face based on improved YOLOv4[J]. Journal of Mine Automation,2023,49(2):70-76.
[17] 顾清华,何鑫鑫,王倩,等. 基于改进YOLOv5的煤矿井下暗环境矿工安全穿戴智能识别[J]. 矿业研究与开发,2024,44(3):201-208. GU Qinghua,HE Xinxin,WANG Qian,et al. Research on intelligent recognition of safety wearing of miners in dark enviroment of coal mine based on improved YOLOv5[J]. Mining Research and Development,2024,44(3):201-208.
[18] 寇发荣,肖伟,何海洋,等. 基于改进YOLOv5的煤矿井下目标检测研究[J]. 电子与信息学报,2023,45(7):2642-2649. DOI: 10.11999/JEIT220725 KOU Farong,XIAO Wei,HE Haiyang,et al. Research on target detection in underground coal mines based on improved YOLOv5[J]. Journal of Electronics & Information Technology,2023,45(7):2642-2649. DOI: 10.11999/JEIT220725
[19] GE Zheng,LIU Songtao,WANG Feng,et al. Yolox:Exceeding YOLO series in 2021[Z/OL]. [2024-04-23]. https://arxiv.org/pdf/2107.08430.
[20] YU F,KOLTUN V. Multi-scale context aggregation by dilated convolutions[Z/OL]. [2024-04-23]. https://arxiv.org/pdf/1511.07122.
[21] DAI Jifeng,QI Haozhi,XIONG Yuwen,et al. Deformable convolutional networks[C]. The IEEE International Conference on Computer Vision,Venice,2017:764-773.
[22] QI Yaolei,HE Yuting,QI Xiaoming,et al. Dynamic snake convolution based on topological geometric constraints for tubular structure segmentation[C]. The IEEE/CVF International Conference on Computer Vision,Paris,2023:6070-6079.
[23] LIU Huajun,LIU Fuqiang,FAN Xinyi,et al. Polarized self-attention:towards high-quality pixel-wise regression[Z/OL]. [2024-04-23]. https://arxiv.org/pdf/2107.00782.
-
期刊类型引用(2)
1. 问永忠,贾澎涛,夏敏高,张龙刚,王伟峰. 基于改进YOLOv8n的井下人员多目标检测. 工矿自动化. 2025(01): 31-37+77 . 本站查看
2. 罗维平,张哲. 基于改进YOLOv8的织物疵点检测算法. 黄河科技学院学报. 2025(02): 23-30 . 百度学术
其他类型引用(0)