矿井井下非均匀照度图像增强算法

苗作华, 赵成诚, 朱良建, 刘代文, 陈澳光

苗作华,赵成诚,朱良建,等. 矿井井下非均匀照度图像增强算法[J]. 工矿自动化,2023,49(11):92-99. DOI: 10.13272/j.issn.1671-251x.2023060032
引用本文: 苗作华,赵成诚,朱良建,等. 矿井井下非均匀照度图像增强算法[J]. 工矿自动化,2023,49(11):92-99. DOI: 10.13272/j.issn.1671-251x.2023060032
MIAO Zuohua, ZHAO Chengcheng, ZHU Liangjian, et al. Image enhancement algorithm for non-uniform illumination in underground mines[J]. Journal of Mine Automation,2023,49(11):92-99. DOI: 10.13272/j.issn.1671-251x.2023060032
Citation: MIAO Zuohua, ZHAO Chengcheng, ZHU Liangjian, et al. Image enhancement algorithm for non-uniform illumination in underground mines[J]. Journal of Mine Automation,2023,49(11):92-99. DOI: 10.13272/j.issn.1671-251x.2023060032

矿井井下非均匀照度图像增强算法

基金项目: 国家自然科学基金项目(41071242,41971237);教育部产学合作协同育人项目(202102136008)。
详细信息
    作者简介:

    苗作华(1974—),男,湖北武汉人,教授,博士,硕士研究生导师,研究方向为人工智能与智慧矿山,E-mail:z837089200@wust.edu.cn

  • 中图分类号: TD67

Image enhancement algorithm for non-uniform illumination in underground mines

  • 摘要: 矿井井下视频采集过程中由于照明系统分布不均匀、环境中存在大量粉尘和雾气,导致监控画面图像存在局部光线过曝、局部亮度不足、对比度低和边缘信息弱等问题。针对上述问题,提出了一种矿井井下非均匀照度图像增强算法。该算法基于Retinex−Net网络结构改进,具体包括非均匀光照抑制模块(NLSM)、光照分解模块(LDM)和图像增强模块(IEM)3个部分:NLSM对图像中人工光源局部非均匀光照进行抑制;LDM将图像分解为光照层和反射层;IEM对图像光照层增强,经伽马校正,最终得到增强图像。在NLSM和LDM中均采用Resnet作为网络基础架构,并顺序引入了卷积注意力机制中通道注意力模块和空间注意力模块,以增强对图像光照特征关注度和特征选择的效率。实验结果表明:① 选取MBLLEN,RUAS,zeroDCE,zeroDCE++,Retinex−Net,KinD++及非均匀照度图像增强算法对多种场景(井下运输环境场景、单光源巷道场景、多光源巷道场景、矿石场景)图像进行增强处理及定性分析,分析结果指出非均匀照度图像增强算法能够避免人工光源区域的过度增强,未在光源区域产生晕染和模糊现象,不易产生色偏,对比度适中,画面视觉效果更真实。② 选取信息熵(IE)、平均梯度(AG)、标准差(SD)、自然图像质量评价指标 (NIQE)、结构相似性(SSIM)和峰值信噪比(PSNR)作为评价指标,定量比较图像增强画面质量。结果表明非均匀照度图像增强算法在多种场景下处于相对领先地位。③ 消融实验结果表明,非均匀照度图像增强算法在NIQE,SSIM,PSNR这3个评价指标上均获得了最优结果。
    Abstract: Due to the non-uniform distribution of lighting systems and the presence of a large amount of dust and mist in the environment during the underground video collection process, there are problems with local light overexposure, insufficient brightness, low contrast, and weak edge information in the monitoring image. In order to solve the above problems, an image enhancement algorithm for non-uniform illumination in underground mines is proposed. This algorithm is based on the improvement of Retinex-Net network structure, which includes three parts: non-uniform illumination suppression module (NLSM), illumination decomposition module (LDM), and image enhancement module (IEM). Among them, NLSM suppresses local non-uniform illumination of artificial light sources in the image. LDM decomposes the image into light and reflection layers. IEM enhances the illumination layer of the image, undergoes gamma correction, and ultimately obtains the enhanced image. Resnet is adopted as the infrastructure of the network in both NLSM and LDM. The channel attention module and spatial attention module in the convolutional attention mechanism are sequentially introduced to enhance the attention to image lighting features and the efficiency of feature selection. The experimental results show the following points. ① MBLLEN, RUAS, zeroDCE, zeroDCE++, Retinex−Net, KinD++, and non-uniform illumination image enhancement algorithms are selected to enhance and qualitatively analyze images in various scenarios (underground transportation environment, single light source roadway, multi light source roadway, ore scenario). The analysis results indicate that non-uniform illumination image enhancement algorithms can avoid excessive enhancement of artificial light source areas. There is no halo or blurring phenomenon in the light source area, and colors are not prone to color deviation. The contrast is moderate, and the visual effect of the image is more realistic. ② The information entropy (IE), average gradient (AG), standard deviation (SD), naturalness image quality evaluator (NIQE), structural similarity (SSIM), and peak signal-to-noise ratio (PSNR) are selected as evaluation indicators to quantitatively compare the quality of image enhancement images. The non-uniform illumination image enhancement algorithm is also in a relatively leading position in various scenarios. ③ The ablation experimental results show the non-uniform illumination image enhancement algorithm achieves optimal results on three evaluation indicators: NIQE, SSIM, and PSNR.
  • 选煤厂安放刮板输送机、振动筛等大型机械设备的区域容易发生人员安全事故,为选煤厂危险区域。尽管在选煤厂危险区域设置了安全隔栏、警示牌等,但在实际生产过程中依然存在人员违规进入危险区域的行为。为保障人员安全,在选煤厂危险区域会安装监控系统,但需要专职人员值守,存在因值班人员疲劳而忽视现场异常工况的现象[1]

    为提高安全管理水平,研究人员提出使用目标检测算法检测设备运行时是否有进入危险区域的人员,辅助值班人员对危险区域进行监测。张圣强等[2]采用背景减除法分割运动目标区域,再结合人体的形状信息进行验证,实现了对人员的检测;陈海龙[3]将背景减除法作为选煤厂巡检机器人目标检测方法。但由于选煤厂光照不均、背景复杂,尤其在人员之间发生遮挡时会使各个目标区域连通在一起,造成漏检率偏高的问题。林娅静[4]通过基于混合高斯模型的背景减除法进行运动目标检测,再结合方向梯度直方图(Histogram of Oriented Gradient, HOG)和支持向量机(Support Vector Machine,SVM)进行人员识别,一定程度上提高了检测准确率,但检测效率低。

    近年来,基于深度学习的目标检测算法发展迅速,其鲁棒性好、泛化能力强,但计算量大。为达到实时检测效果,学者们提出了轻量化目标检测模型,但现有的轻量化目标检测模型是面向公开数据集设计的,需要兼顾多个类别目标的检测效果,缺乏对特定类型目标检测性能的优化。考虑到选煤厂在生产过程中产生的粉尘会覆盖员工工作服,且喷雾降尘设备产生的雾气会导致监控画面对比度低,给人员全身与生产环境背景颜色的区分带来困难,而人员头部特征相对易于辨识,人头在监控视角下被遮挡的可能性较低,所以相对于人员全身检测,人头检测更加方便有效[5]。大部分人头属于小尺寸目标,目前的轻量化目标检测模型在特征提取时的降采样率较大,信息损失多,因此对人头目标的检测能力有限。针对该问题,本文提出了轻量化人员检测模型CenterNet−GhostNet。该模型以CenterNet[6]网络为基础框架,将轻量化网络GhostNet[7]与特征金字塔(Feature Pyramid Network,FPN)[8]相结合作为特征提取网络,在提取高层语义特征的同时保留细节信息;使用3个独立卷积分支对输出特征图进行解码计算,以充分利用特征图的细节信息,从而在人头目标检测上达到较高的准确率。

    CenterNet−GhostNet模型框架如图1所示,总体上可分为特征提取、特征图解码计算和预测输出3个部分。

    图  1  CenterNet−GhostNet模型框架
    Figure  1.  Framework of CenterNet-GhostNet model

    (1) 特征提取。将输入图像通过特征提取网络映射成包含原图像语义信息的输出特征图,输出特征图的分辨率为128×128,为输入图像的1/4。

    (2) 特征图解码计算。为充分利用高分辨率特征图的细节信息,输出特征图经过3个相互独立的卷积操作后,分别生成关键点热图、偏移量热图及尺寸热图,3个热图的尺寸相同。关键点热图中每个点的值代表该点作为目标中心点(也被称为关键点)的置信度;偏移量代表关键点对应的坐标偏移量,是关键点映射回原图时由于分辨率不同产生的;尺寸热图包含目标边界框尺寸大小,用于后续生成目标边界框。

    (3) 预测输出。首先,在关键点热图上进行3×3最大池化操作,得到每个3×3区域中置信度最大的关键点,将筛选出的关键点作为目标在关键点热图上的中心点,然后使用偏移量调整中心点位置,得到输入图像中精确的目标中心点,最后根据目标边界框尺寸绘制目标边界框。

    为了在保证精度的前提下提升模型运行效率,降低硬件成本,设计了基于GhostNet和FPN的轻量化特征提取网络,结构如图2所示。GhostNet对输入图像进行特征提取,FPN对GhostNet提取的各层特征进行融合。

    图  2  基于GhostNet和FPN的特征提取网络结构
    Figure  2.  Feature extraction network structure based on GhostNet and feature pyramid network

    GhostNet具有运行快、准确率高等优点,其参数见表1。G−bneck是GhostNet中被称为瓶颈的结构,如图3所示。步长为1的G−bneck由Ghost模块、批标准化层叠加而成,且输入和输出之间有1条跳跃连接通道。步长为2的G−bneck比步长为1的G−bneck多了1个步长为2的深度可分离卷积层[9]和1个批标准化层。

    表  1  GhostNet参数
    Table  1.  Parameters of GhostNet
    输入尺寸结构步长
    512×512×3Conv2d(3×3)2
    256×256×16G−bneck×21,2
    128×128×24G−bneck×21,2
    64×64×40G−bneck×21,2
    32×32×80G−bneck×41,1,1,1
    32×32×112G−bneck×21,2
    16×16×160G−bneck×41,1,1,1
    16×16×160Conv2d(3×3)1
    下载: 导出CSV 
    | 显示表格
    图  3  G−bneck结构
    Figure  3.  Structure of G-bneck

    G−bneck中的Ghost模块(图4)是GhostNet提升精度的关键,其用计算量很少的线性运算代替部分卷积运算,将得到的冗余特征图与本征特征图进行拼接,提高网络的特征表达能力。

    图  4  Ghost模块
    Figure  4.  Ghost module

    FPN融合了GhostNet提取的16×16,32×32,64×64,128×128这4个不同分辨率的特征图中信息,一方面融合了高层语义特征,提供了全局的情景信息,另一方面保留了丰富的细节信息,能够提高模型对小尺寸目标的检测能力。特征融合的方式为较高分辨率特征图经过步长为1的1×1卷积运算后,与经过2倍上采样的较低分辨率特征图逐元素相加。本文使用卷积核大小为3×3、步长为1的可形变卷积[10]与卷积核大小为3×3、步长为1的转置卷积串联的卷积操作来代替FPN中常用的双线性差值操作[11],使FPN在融合特征时能够自适应地突出重要特征,减少无效信息的干扰[12]

    CenterNet−GhostNet模型的损失函数Ldet由关键点置信度损失函数Lk、偏移量损失函数Loff和目标边界框尺寸损失函数Lsize组成。

    $$ \begin{array}{c}{L}_{\mathrm{d}\mathrm{e}\mathrm{t}}={L}_{\mathrm{k}}+{{\lambda }_{\mathrm{o}\mathrm{f}\mathrm{f}}L}_{\mathrm{o}\mathrm{f}\mathrm{f}}+{\lambda }_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}{L}_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}\end{array} $$ (1)

    式中λoffλsize分别为LoffLsize的调节系数。

    计算关键点置信度的损失需要根据训练样本中目标的真实位置生成监督信号,即生成一个跟关键点热图尺寸相同的标签热图,标签热图中每个点的值与关键点热图中每个点的置信度一一对应,代表了该点是关键点的可能性( 即关键点置信度)。训练样本原图中标注的目标边界框中心作为目标的真实关键点p,其在下采样倍数为R的标签热图上对应的关键点$ \tilde p=\left\lfloor {p/R} \right\rfloor $

    标签热图中关键点置信度$Y_{\tilde p} $以关键点$ \tilde p $为中心,呈高斯分布。

    $$ \begin{array}{c}{Y_{\tilde p}}={\rm{exp}}\left[-\dfrac{{\left(x-{x}_{\tilde p}\right)}^{2}+{\left(y-{y}_{\tilde p}\right)}^{2}}{2{\sigma }^{2}}\right]\end{array} $$ (2)

    式中:(xy)为标签热图上点的坐标;$ ({x}_{\tilde p},{y}_{\tilde p}) $为关键点$ \tilde p $的坐标;σ为与目标边界框尺寸相关的自适应标准差。

    关键点置信度损失函数Lk为基于Focal Loss[12]的变体:

    $${{L}_{\text{k}}}=\left\{ \begin{matrix} -\dfrac{1}{N}\underset{\tilde{p}}{\mathop \displaystyle \sum }\,{{( 1-{\hat{Y}_{\tilde p}} )}^{\alpha }}\text{lo}{{\text{g}}_{2}} {\hat{Y}_{\tilde p}} ~~~~~~~~~~~~~~~~~~~{Y_{\tilde p}}=1 \\ -\dfrac{1}{N}\underset{\tilde{p}}{\mathop \displaystyle \sum }\,{{( 1-{Y_{\tilde p}} )}^{\beta }}{{ {\hat{Y}_{\tilde p}} }^{ \alpha }}\text{lo}{{\text{g}}_{2}}( 1-{\hat{Y}_{\tilde p}} )~~~~~其他 \\ \end{matrix} \right.$$ (3)

    式中:N为标签热图中真实关键点个数;$\hat{Y}_{\tilde p} $为标签热图中关键点置信度预测值;αβ为超参数,本文取α=2,β=4。

    由于关键点热图与原图分辨率不同,将关键点从关键点热图映射回原图时会存在偏移,偏移量损失函数为

    $$ \begin{array}{c}{L}_{\mathrm{o}\mathrm{f}\mathrm{f}}=\dfrac{1}{N}\displaystyle \sum _{\tilde p}\left|{\hat{O}}_{\tilde p}-{O}_{\tilde p}\right|\end{array} $$ (4)

    式中:$ {\hat{O}}_{\tilde p} $为关键点$ \tilde p $的偏移量预测值;$ {O}_{\tilde p} $为关键点$ \tilde p $的偏移量真实值,$ {O}_{\tilde p}=p/R-\tilde p $

    目标边界框尺寸损失函数为

    $$ \begin{array}{c}{L}_{\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e}}=\dfrac{1}{N}\displaystyle \sum _{\tilde p}\left|{\hat{S}_{\tilde p}}-{S_{\tilde p}}\right|\end{array} $$ (5)

    式中:${\hat S_{\tilde p}} $为关键点$\tilde p $对应的目标边界框尺寸预测值;$S_{\tilde p} $为关键点$\tilde p $对应的目标边界框尺寸真实值。

    通过截取选煤厂监控视频帧,以及在自采集图像中随机添加高斯、椒盐噪声和降低对比度来模拟选煤厂监控视频图像,共采集4 096张图像样本。使用LabelImg工具进行图像标注,标注格式为Pascal VOC[13]。标注的人头样本个数为13 248,其中佩戴安全帽的人头样本个数为7 138,未佩戴安全帽的人头样本个数为6 110。图像样本按照8∶1∶1的比例划分为训练集、验证集和测试集。

    模型训练使用Intel Core i9−9900KF CPU,NVIDIA RTX2080Ti GPU等作为硬件平台。实验环境:Ubuntu 20.04 LTS;CUDA 11.0;cuDNN 8.5.0;PyTorch 1.7;Python 3.6。

    CenterNet−GhostNet模型训练参数:轮数为140;批尺寸为32;优化器为Adam;1—89,90—119,120—140轮的学习率分别为5×10−4,5×10−5,5×10−6;输入图像尺寸为512×512。

    为加快模型收敛速度,GhostNet在训练前载入在ImageNet数据集上的预训练权重。此外,为提高模型泛化能力,CenterNet−GhostNet在训练时采用Mosaic数据扩增[14]和色彩抖动作为在线数据增强方法来扩充数据集,能够起到丰富背景和提升小目标检测性能的作用。

    为验证CenterNet−GhostNet模型的优越性,与CenterNet−Res18模型( 以CenterNet为基础框架并使用ResNet−18作为特征提取网络的轻量化模型)进行对比,检测结果如图5图6所示。目标边界框的颜色代表目标类别,蓝色代表未佩戴安全帽的人员头部,红色表示已佩戴安全帽的人员头部;目标边界框上方的数字代表目标的类别置信度。

    图  5  CenterNet−GhostNet模型检测结果
    Figure  5.  Detection results of CenterNet-GhostNet model
    图  6  CenterNet−Res18模型检测结果
    Figure  6.  Detection results of CenterNet-Res18 model

    对比图5图6可看出:对图像1的检测中,CenterNet−GhostNet模型不仅检测出所有人头目标,且正确区分了目标类别;对图像2的检测中,2个模型均正确检测出目标,但CenterNet−GhostNet模型的目标边界框位置更精准,类别置信度更高;对图像3的检测中,CenterNet−Res18模型存在漏检,而CenterNet−GhostNet模型正确检测出所有人头目标。

    CenterNet−GhostNet模型与常见轻量化目标检测模型YOLOv4 Tiny、SSD−MobileNet及CenterNet−Res18的客观评价指标对比见表2。使用平均精度均值( Mean Average Precision,mAP)衡量目标检测精度,每秒传输帧数(Frames Per Second,FPS)衡量目标检测速度。

    表  2  不同模型检测精度和检测速度对比
    Table  2.  Comparison of detection accuracy and detection speed among different models
    模型mAP/%FPS/(帧·s−1
    佩戴安全帽未佩戴安全帽
    SSD−MobileNet87.183.3167
    YOLOv4 Tiny91.589.7117
    CenterNet−Res1888.685.1155
    CenterNet−GhostNet93.791.7146
    下载: 导出CSV 
    | 显示表格

    表2可看出,CenterNet−GhostNet模型检测速度相较于SSD−MobileNet和CenterNet−Res18模型略低,但对两类(佩戴安全帽和未佩戴安全帽)人头样本的检测精度均最高。

    为实现CenterNet−GhostNet模型在选煤厂危险区域人员检测中的应用,将其部署到NVIDIA Jetson Nano上。模型部署步骤:① 将CenterNet−GhostNet模型导出为ONNX文件。② 受制于NVIDIA Jetson Nano显存( 2 GB)和图像分辨率( 512×512),设置批尺寸为1,选择FP16作为模型部署推理精度,以保证实时性。③ 将模型转换为TensorRT工程文件,使用OpenCV读取并处理视频,调用TensorRT工程文件执行推理。

    NVIDIA Jetson Nano配合监控摄像机和报警器进行选煤厂危险区域人员检测,布置如图7所示。监控摄像机连接在NVIDIA Jetson Nano的CSI接口,NVIDIA Jetson Nano对视频进行处理后,通过GPIO接口发送指令控制报警器提醒现场工作人员。

    图  7  选煤厂危险区域人员检测布置
    Figure  7.  Personnel detection arrangement in dangerous area of coal preparation plant

    CenterNet−GhostNet模型在NVIDIA Jetson Nano上单帧检测耗时67 ms,表明该模型能够满足实时检测的要求。

    (1) 针对选煤厂环境下人员全身目标检测因粉尘、雾气干扰难以准确与背景区分的问题,提出使用人员头部检测来代替人员全身目标检测,以减少选煤厂环境因素的影响。

    (2) 以CenterNet网络为基础框架,将GhostNet与FPN相结合作为特征提取网络,构建了CenterNet−GhostNet模型来进行人员头部检测。

    (3) 在自建的选煤厂人员数据集上进行实验验证,结果表明CenterNet−GhostNet模型能在保证检测速度的同时提升检测精度,满足选煤厂危险区域人员检测需求。

    (4) 将CenterNet−GhostNet模型部署在NVIDIA Jetson Nano上,配合监控摄像机、报警器,能够在工作人员进入危险区域时及时报警提示。实验结果表明,模型单帧检测耗时67 ms,满足实时检测要求。

  • 图  1   Retinex−Net网络结构

    Figure  1.   Retinex-Net network structure

    图  2   非均匀照度图像增强算法整体网络结构

    Figure  2.   Overall network structure of the non-uniform illumination image enhancement algorithm

    图  3   Layers结构

    Figure  3.   Layers structure

    图  4   CBAM结构

    Figure  4.   CBAM structure

    图  5   BasicBlock 结构

    Figure  5.   BasicBlock structure

    图  6   不同算法增强结果及局部放大图

    Figure  6.   Enhancement results and local enlarged images of different algorithms

    表  1   不同算法评价指标结果

    Table  1   Evaluation index results of different algorithms

    场景 算法 IE AG SD NIQE SSIM PSNR 场景 算法 IE AG SD NIQE SSIM PSNR
    1 MBLLEN 6.17 60.09 60.68 6.86 0.48 12.62 3 MBLLEN 6.69 32.1 62.65 4.74 0.55 11.36
    RUAS 4.57 41.19 83.71 6.16 0.6 15.22 RUAS 5.46 27.22 54.38 4.54 0.67 11.45
    zeroDCE 5.26 48.65 72.17 5.41 0.61 15.08 zeroDCE 5.99 38.04 49.01 3.96 0.45 15.49
    zeroDCE++ 5.28 48.83 76.09 5.74 0.6 15 zeroDCE++ 6.05 40.44 52.41 4.02 0.4 14.71
    Retinex−Net 6.12 63.43 61.39 4.8 0.23 12.35 Retinex−Net 6.48 51.16 47.05 4.82 0.22 10.76
    KinD++ 5.73 56.52 70.77 5.15 0.59 15.18 KinD++ 6.18 52.7 50.75 4.52 0.4 14.06
    本文算法 6.24 67.68 70.37 4.7 0.57 15.27 本文算法 7.32 54.56 49.65 3.88 0.56 17.5
    2 MBLLEN 6.7 34.92 46.96 5.04 0.36 11.43 4 MBLLEN 7.43 56.77 64.38 3.88 0.43 11.74
    RUAS 5.23 28.59 52.28 5.07 0.7 16.84 RUAS 6.44 86.72 83.13 4.17 0.58 11.91
    zeroDCE 5.59 38.06 48.07 4.68 0.5 16.14 zeroDCE 6.82 80.49 60.01 3.72 0.49 11.86
    zeroDCE++ 5.73 39.34 52.71 4.76 0.43 14.57 zeroDCE++ 6.98 81.57 67.97 3.56 0.47 12.29
    Retinex−Net 6.36 55.8 47.17 4.77 0.14 11.44 Retinex−Net 7.18 116.6 53.61 4.72 0.24 10.32
    KinD++ 6.02 50.15 51.35 4.65 0.46 14.3 KinD++ 7.05 105.6 59.59 3.93 0.44 12.12
    本文算法 7.31 31.49 63.34 4.13 0.56 11.83 本文算法 7.71 55.7 55.7 3.29 0.28 12.78
    下载: 导出CSV

    表  2   消融实验

    Table  2   Ablation experiment

    算法 IE AG SD NIQE SSIM PSNR
    算法1 6.53 71.84 52.27 4.78 0.21 11.23
    算法2 6.35 62.47 56.49 4.59 0.48 13.65
    算法3 7.02 60.70 62.02 4.13 0.48 13.85
    本文算法 7.15 51.69 60.09 4.00 0.49 14.19
    下载: 导出CSV
  • [1] 吴建雷. 矿井下图像增强与目标跟踪研究[D]. 太原:太原理工大学,2021.

    WU Jianlei. Research on image enhancement and target tracking in underground mine[D]. Taiyuan:Taiyuan University of Technology,2021.

    [2] 刘晓阳,乔通,乔智. 基于双边滤波和Retinex算法的矿井图像增强方法[J]. 工矿自动化,2017,43(2):49-54. DOI: 10.13272/j.issn.1671-251x.2017.02.011

    LIU Xiaoyang,QIAO Tong,QIAO Zhi. Image enhancement method of mine based on bilateral filtering and Retinex algorithm[J]. Industry and Mine Automation,2017,43(2):49-54. DOI: 10.13272/j.issn.1671-251x.2017.02.011

    [3] 唐守锋,史可,仝光明,等. 一种矿井低照度图像增强算法[J]. 工矿自动化,2021,47(10):32-36. DOI: 10.13272/j.issn.1671-251x.2021060052

    TANG Shoufeng,SHI Ke,TONG Guangming,et al. A mine low illumination image enhancement algorithm[J]. Industry and Mine Automation,2021,47(10):32-36. DOI: 10.13272/j.issn.1671-251x.2021060052

    [4] 阮顺领,刘丹洋,白宝军,等. 基于自适应MSRCP算法的煤矿井下图像增强方法[J]. 矿业研究与开发,2021,41(11):186-192. DOI: 10.13827/j.cnki.kyyk.2021.11.030

    RUAN Shunling,LIU Danyang,BAI Baojun,et al. Image enhancement method for underground coal mine based on the adaptive MSRCP algorithm[J]. Mining Research and Development,2021,41(11):186-192. DOI: 10.13827/j.cnki.kyyk.2021.11.030

    [5] 许新宇. 光照不均图像的超分辨率重建与空间融合增强算法研究[D]. 西安:西安科技大学,2020.

    XU Xinyu. Research on super-resolution reconstruction and spatial fusion enhancement algorithm of uneven light image[D]. Xi'an:Xi'an University of Science and Technology,2020.

    [6] 乔佳伟,贾运红. Retinex算法在煤矿井下图像增强的应用研究[J]. 煤炭技术,2022,41(3):193-195.

    QIAO Jiawei,JIA Yunhong. Research on application of Retinex algorithm in image enhancement in coal mine[J]. Coal Technology,2022,41(3):193-195.

    [7] 李星. 低照度彩色图像CLAHE增强算法研究[D]. 哈尔滨:哈尔滨理工大学,2021.

    LI Xing. Research on CLAHE enhancement algorithm for low illuminance color image[D]. Harbin:Harbin University of Science and Technology,2021.

    [8]

    SAAD N H,ISA N A M,SALEH H M. Nonlinear exposure intensity based modification histogram equalization for non-uniform illumination image enhancement[J]. IEEE Access,2021,9:93033-93061. DOI: 10.1109/ACCESS.2021.3092643

    [9]

    THEPADE S D,PARDHI P M. Contrast enhancement with brightness preservation of low light images using a blending of CLAHE and BPDHE histogram equalization methods[J]. International Journal of Information Technology,2022,14(6):3047-3056. DOI: 10.1007/s41870-022-01054-0

    [10] 管萍. 基于Retinex和卷积神经网络的低照度图像增强方法研究[D]. 芜湖:安徽工程大学,2022.

    GUAN Ping. Research on low illumination image enhancement method based on Retinex and convolutional neural network[D]. Wuhu:Anhui Polytechnic University,2022.

    [11] 吴佳丽. 基于Retinex理论的非均匀光照图像增强算法研究[D]. 南京:南京邮电大学,2022.

    WU Jiali. Research on image enhancement algorithms under non-uniform illumination conditions based on Retinex theory[D]. Nanjing:Nanjing University of Posts and Telecommunications,2022.

    [12] 赵征鹏,李俊钢,普园媛. 基于卷积神经网络的Retinex低照度图像增强[J]. 计算机科学,2022,49(6):199-209. DOI: 10.11896/jsjkx.210400092

    ZHAO Zhengpeng,LI Jungang,PU Yuanyuan. Low-light image enhancement based on retinex theory by convolutional neural network[J]. Computer Science,2022,49(6):199-209. DOI: 10.11896/jsjkx.210400092

    [13] 武亚红. 不均匀低照度低质图像增强算法研究[D]. 南京:南京邮电大学,2021.

    WU Yahong. Study of algorithms for non-uniform low-light low-quality image enhancement[D]. Nanjing:Nanjing University of Posts and Telecommunications,2021.

    [14] 姜雪松. 不良照明条件下的夜晚图像增强方法研究[D]. 哈尔滨:哈尔滨工业大学,2020.

    JIANG Xuesong. Research on nighttime image under poor lighting conditions enhancement methods[D]. Harbin:Harbin Institute of Technology,2020.

    [15]

    WEI Chen,WANG Wenjing,YANG Wenhan,et al. Deep Retinex decomposition for low-light enhancement[J]. 2018. DOI: 10.48550/arXiv.1808.04560.

    [16]

    WU Zifeng,SHEN Chunhua,ANTON V D H. Wider or deeper:revisiting the resnet model for visual recognition[J]. Pattern Recognition:The Journal of the Pattern Recognition Society,2019,90:119-133. DOI: 10.1016/j.patcog.2019.01.006

    [17]

    WOO H,PARK J,LEE J,et al. CBAM:convolutional block attention module[C]. European Conference on Computer Vision,Munich,2018:3-19.

    [18]

    LYU Feifan,LU Feng,WU Jianhua,et al. MBLLEN:low-light image/video enhancement using CNNs[C]. British Machine Vision Conference,Newcastle,2018,220(1):4.

    [19]

    LIU Risheng,MA Long,ZHANG Jia'ao,et al. Retinex-inspired unrolling with cooperative prior architecture search for low-light image enhancement[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,Kuala Lumpur,2021:10561-10570.

    [20]

    GUO Chunle,LI Chongyi,GUO Jichang,et al. Zero-reference deep curve estimation for low-light image enhancement[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition,2020:1780-1789.

    [21]

    LI Chongyi,GUO Chunle,LOY C C. Learning to enhance low-light image via zero-reference deep curve estimation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,44(8):4225-4238.

    [22]

    ZHANG Yonghua,GUO Xiaojie,MA Jiayi,et al. Beyond brightening low-light images[J]. International Journal of Computer Vision,2021,129:1013-1037. DOI: 10.1007/s11263-020-01407-x

    [23]

    MITTAL A,SOUNDARARAJAN R,BOVIK A C. Making a "completely blind" image quality analyzer[J]. IEEE Signal Processing Letters,2012,20(3):209-212.

    [24]

    SETIADI D R I M. PSNR vs SSIM:imperceptibility quality assessment for image steganography[J]. Multimedia Tools and Applications,2021,80(6):8423-8444. DOI: 10.1007/s11042-020-10035-z

  • 期刊类型引用(6)

    1. 管含宇,凌云,汪舒磊. 单阶段安全帽检测深度学习算法综述. 计算机工程与应用. 2024(16): 61-75 . 百度学术
    2. 张婧,冯莹莹,李洪安,杜思哲,莫金明. 煤矿工作面喷雾除尘场景下的安全帽识别算法. 矿业安全与环保. 2024(04): 9-16 . 百度学术
    3. 岳廷树,鄢元霞,潘文林. 基于YOLOv5的边境可疑人员检测系统设计. 计算机与数字工程. 2024(12): 3541-3546 . 百度学术
    4. 葛淑伟,张永茜,秦嘉欣,李雪,王晓. 基于优化SSD-MobileNetV2的煤矿井下锚孔检测方法. 采矿与岩层控制工程学报. 2023(02): 66-74 . 百度学术
    5. 孙迟,刘晓文. 基于YOLOv7-tiny改进的矿工安全帽检测. 中国科技论文. 2023(11): 1250-1256+1274 . 百度学术
    6. 折小江,刘江,王兰豪. AI视频图像分析在选煤厂智能化中的应用现状与发展趋势. 工矿自动化. 2022(11): 45-53+109 . 本站查看

    其他类型引用(6)

图(6)  /  表(2)
计量
  • 文章访问数:  191
  • HTML全文浏览量:  102
  • PDF下载量:  55
  • 被引次数: 12
出版历程
  • 收稿日期:  2023-06-09
  • 修回日期:  2023-11-04
  • 网络出版日期:  2023-11-14
  • 刊出日期:  2023-11-24

目录

/

返回文章
返回