基于改进YOLOv5的口罩佩戴检测算法.pdf
《基于改进YOLOv5的口罩佩戴检测算法.pdf》由会员分享,可在线阅读,更多相关《基于改进YOLOv5的口罩佩戴检测算法.pdf(10页珍藏版)》请在咨信网上搜索。
1、第 49卷 第 8期2023年 8月Computer Engineering 计算机工程基于改进 YOLOv5的口罩佩戴检测算法张欣怡,张飞,郝斌,高鹭,任晓颖(内蒙古科技大学 信息工程学院,内蒙古 包头 014000)摘要:在公共场合密集人群场景下,由于目标遮挡导致的信息缺失及检测目标较小、分辨率低问题,使得人脸佩戴口罩检测算法的检测效果较差。为提高模型的检测精度和速度,减少硬件占用资源,提出一种基于改进YOLOv5s的口罩佩戴检测算法。将标准卷积和深度可分离卷积相结合替换传统卷积,并进行通道混洗的鬼影混洗卷积,以在保证精度的前提下提升网络速度。将最近邻法上采样替换为轻量级通用上采样算子,充
2、分利用特征语义信息,在改进的 YOLOv5s模型 Neck 层末端添加自适应空间特征融合,可以对不同尺度的特征进行更好的融合,提高网络检测精度,并通过自适应图片采样,缓解数据不均衡的问题,运用马赛克数据增强对小目标进行充分利用。实验结果表明,该算法在 AIZOO 数据集上的 mAP 值达到了 93%,比 YOLOv5 原始模型提升了 2 个百分点,对于佩戴口罩的人脸检测精度达到了 97.7%,优于同等情况下 YOLO 系列、SSD、RetinaFace 的检测效果,同时在GPU上的运行推理速度提升了 16.7个百分点,且模型权重文件的内存仅为 23.5 MB,适用于实时口罩佩戴检测。关键词:口
3、罩佩戴检测;YOLOv5s模型;鬼影混洗卷积;自适应空间特征融合;轻量级通用上采样算子开放科学(资源服务)标志码(OSID):源代码链接:https:/ J.计算机工程,2023,49(8):265-274.英文引用格式:ZHANG X Y,ZHANG F,HAO B,et al.Mask wearing detection algorithm based on improved YOLOv5 J.Computer Engineering,2023,49(8):265-274.Mask Wearing Detection Algorithm Based on Improved YOLOv5ZH
4、ANG Xinyi,ZHANG Fei,HAO Bin,GAO Lu,REN Xiaoying(School of Information Engineering,Inner Mongolia University of Science and Technology,Baotou 014000,Inner Mongolia,China)【Abstract】In dense crowd scenes in public places,face mask wearing detection algorithms have poor detection results because of miss
5、ing information caused by target occlusion and the problems of small detection targets and low resolution.To improve the detection accuracy and speed of the model as well as to reduce the hardware footprint,an improved mask wearing detection algorithm based on YOLOv5s is proposed.The conventional co
6、nvolution is replaced with Ghost-Shadowed wash Convolution(GSConv),combining Standard Convolution(SConv)and Depth-Wise separable Convolution(DWConv)with channel blending,thereby improving the network speed with guaranteed accuracy.The nearest neighbor upsampling method is replaced with a lightweight
7、 universal upsampling operator to make full use of the semantic feature information.Adaptive Spatial Feature Fusion(ASFF)is added at the end of the neck layer of the improved YOLOv5s model,which allows better fusion of features at different scales and improves the network detection accuracy.In addit
8、ion,adaptive image sampling is used to alleviate the problem of data imbalance.Mosaic data enhancement is used to make full use of small targets.Experimental results show that the model achieves a mean Average Precision(mAP)value of 93%on the AIZOO dataset,a 2 percentage points improvement over the
9、original YOLOv5 model.It achieves 97.7%detection accuracy for faces wearing masks and outperforms the detection results of the YOLO series,SSD,and RetinaFace in the same situation.It also runs on a GPU with a 16.7 percentage points inference speedup.The model weights file uses 23.5 MB memory for rea
10、l-time mask wearing detection.【Key words】mask wearing detection;YOLOv5s model;Ghost-Shadowed wash Convolution(GSConv);Adaptive Spatial Feature Fusion(ASFF);lightweight universal upsampling operatorDOI:10.19678/j.issn.1000-3428.0065701基金项目:内蒙古自治区科技计划项目(2021GG0046,2021GG0048)。作者简介:张欣怡(1998),女,硕士研究生,主研
11、方向为图像处理;张 飞,副教授、博士;郝 斌,讲师、博士;高 鹭,副教授、硕士;任晓颖,讲师。收稿日期:2022-09-07 修回日期:2022-11-07 Email:开发研究与工程应用文章编号:1000-3428(2023)08-0265-10 文献标志码:A 中图分类号:TP3912023年 8月 15日Computer Engineering 计算机工程0概述2019年,新型冠状病毒肺炎在全球大肆传播,新冠肺炎主要通过唾液、飞沫传播,而且其传染性很强,正确地佩戴口罩可以有效地减少新冠疫情的传播。在目前疫情常态化的情况下,人们在地铁、医院、学校、商场等人群密集的公共场合中均会对佩戴口罩情
12、况进行检查。与此同时,佩戴口罩除了可以有效减少疾病的传播,在工业制造和生产时,还可以在一定程度上防止 PM2.5、扬尘等污染物对呼吸道的伤害。目前口罩佩戴检测多以人工为主,在此过程中可能存在漏检、浪费人力资源的问题。因此,对基于机器视觉的口罩佩戴检测方法进行研究具有重要意义。近年来,深度学习技术在目标识别领域已经有了广泛应用,目标检测的主要功能是检测图像中出现的既定目标类别以及目标的位置信息。学术界同时也涌现出了许多基于深度学习的人脸佩戴口罩的检测方法,主要分为两类:一类是以 Faster R-CNN1与 Mask R-CNN2等为代表的两阶段检测算法;另一类是以 YOLO3等为代表的一阶段目
13、标检测算法。传统的两阶段检测模型主要基于候选区域进行检测。文献 4 在训练模型时,利用迁移学习的思想,在模型训练中加入预训练权重,并将数据集划分为一般场景和复杂场景进行训练。文献5使用ResNet50 中 3 个不同尺度的特征层进行多尺度融合,并使用聚类算法代替人工调整聚类 anchor尺寸,提高了模型的检测能力。文献 6 在区域提议网络中使用多任务增强,减少了分辨率较低的口罩目标误检,同时引入了 5 种新尺度,增加 anchor 数量至15个,提升了模型的检测精度。目前,基于边框回归思想的一阶段检测算法迅速发展,其具有实时性强的优点,适用于口罩佩戴检测。文献 7 将 YOLO 模型应用于人脸
14、口罩的检测,并对比了 YOLOv1、YOLOv2、YOLOv3 在口罩检测方面的性能。文献 8 对口罩佩戴算法进行轻量化研究,并对 YOLOv3模型进行改进,提升了口罩检测速度。文献 9 对 YOLOv4-Tiny进行改进,使用轻量化残差模块使模型快速收敛,并基于 3 个尺度的特征分支以增强低特征层的信息表达能力,降低了小目标的漏检率。文献 10 对 YOLOv5-4.0进行改进,添加了自适应锚定框等,提升了 0.71%的 mAP 值。但是,在人群密集的场所中,人脸目标变小,清晰度变低,带上口罩后失去了鼻子、嘴等特征信息,而且实时检测需要满足速度快、精度高等要求。所以,口罩检测算法的精度、速度
15、等仍然有待提高。本文主要针对在复杂场景下对佩戴口罩目标识别的高实时性、高检测率、低误检率的要求,提出一种改进 YOLOv5s 模型。YOLOv5s 网络模型的主体部分集中于特征融合的 Neck 层,通过对 Neck 层进行改进,在确保检测速度的前提下提高检测精度。在此基础上,将传统卷积替换为结合标准卷积和深度 可 分 离 卷 积 并 进 行 通 道 混 洗 的 鬼 影 混 洗 卷 积(Ghost-Shadowed wash Convolution,GSConv),并将最近邻法上采样替换为轻量级通用上采样算子,即内容感知特征重组(Content-Aware ReAssembly of FEeat
16、ures,CARAFE),对特征语义信息进行充分利用。在 Neck层末端添加自适应空间特征融合(Adaptive Spatial Feature Fusion,ASFF),以保证在卷积的过程中融合更多小目标信息。此外,使用自适应图片采样缓解数据不均衡的问题,同时使用马赛克数据增强,以充分利用特征图中的小目标信息。1YOLOv5算法YOLO 是 一 种 经 典 的 一 阶 段 目 标 检 测 算 法。YOLOv14使用整张图作为网络输入,采用直接回归的方法在输出层输出锚框的位置和其所属类别。随后,YOLOv211、YOLOv312在其基础上进行改进,分别采用 darknet-19、darknet
17、-53作为特征提取网络,提升了速度和精度。YOLOv413则在传统 YOLO 的技术上加入马赛克数据增强、CIoU 损失函数等,实现在一块 1080 Ti的 GPU 上完成训练模型,加强 YOLO在工业界目标检测的应用。YOLOv514是一种经典的一阶段目标检测算法,其优点是运行速度快且检测效果好,通常应用于工业级实时目标检测系统。目前,YOLOv5 已经更新 到 6.0 版 本,并 且 拥 有 YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 这 4 个版本。其中,YOLOv5s模型深度小、参数量少,相对另外 3个版本推理速度更快,更适用于口罩实时性检测。YOLOv5s网络结构
18、主要包括 4个部分:即输入(Input)、特征提取网络(Backbone)、特 征 融 合 网 络(Neck)和 检 测 网 络(Prediction)。Input层对图像进行预处理后,通过 Mosaic数据增强依据随机缩放、随机剪裁、随机排布的方式进行拼接,使小目标分布更加均匀,并添加了自适应锚框计算与自适应图片缩放,进一步提高了模型的检测速度与精度。Backbone 包 含 跨 阶 段 局 部 网 络(Cross Stage Partial Network,CSP)层15和 空 间 金 字 塔 池 化(Spatial Pyramid Pooling,SPP)16。CSP 将特征图按照通道维
19、度拆分为两部分,一部分为正常网络,另一部分直接与特征映射进行拼接。在确保网络检测精度的前提下,可以减少梯度重复导致整个网络的计算量过高的问题。为了更好地满足各种不同尺寸大小的输入,Backbone 最后加入了 SPPF 模块。SPPF通过最大池化来保证最终的输入特征一致,并且增大了预测框的感受野。266第 49卷 第 8期张欣怡,张飞,郝斌,等:基于改进 YOLOv5的口罩佩戴检测算法Neck 部 分 由 特 征 金 字 塔(Feature Pyramid Networks,FPN)17和路径聚合网络(Path Aggregation Networks,PANet)18组成。FPN 结构自顶向
20、下传达特征信息,PANet接收后再自底向上传达空间信息,最后进行参数聚合,有效地提高了网络的特征融合能力。Prediction 使用 GIoU 损失函数预测边界框。其中,损失函数由用于计算预测框与标定框误差的定位损失函数(box_loss)、用于计算网络置信度的置信度损失函数(obj_loss)和用于计算锚框与对应标定的分类是否正确的分类损失函数(cls_loss)3 个部分组成,并且使用加权 NMS 对非极大值进行抑制,从而得到最优目标框。损失函数公式如下:LCIoU=1-IIoU+2(bbgt)c2+(1)=(1-IIoU)+(2)=12(arctanwgthgt-arctanwh)2(3
21、)Lconf=-i=0S2j=0BIobjijloga(Cij)-noobji=0S2j=0BInoobjijloga(1-Cij)(4)Lcls=-i=0S2j=0BIobjijCclspCijloga(pCij)+()1-pCijloga(1-pCij)(5)LLoss=LCIoU+Lconf+Lcls(6)其中:IoU 为真实框和预测框交并比值;2(bbgt)为真实框和预测框中心点的欧氏距离;C 表示覆盖预测框与真实框的最小闭合框的对角线长度;a为权重参数;hgt和wgt为预测框的长和宽,w和h为真实框的长和宽;S 是特征图的边长;B 是特征图中每个单元的锚点数量;Iobjij表示第 i
22、个单元中的第 j个锚是否对落入该区域的边界盒的概率负责,若负责则Iobjij=1,否则为 0;Inoobjij的定义和值与Iobjij相反;Cij是所提出的第 i 个单元中的第 j 个锚的置信度得分,Cij 0,1;noobj是平衡系数在训练时被设置为 0.5;pCij是第 i 个单元中第 j 个锚的预测类别;pCij是真实的类别;LLoss为总的损失函数。YOLOv5s 6.0模型结构如图 1所示。2改进的 YOLOv5算法2.1改进的模型结构本文针对背景复杂、被识别物体尺寸大小不一 的 问 题,提 出 改 进 的 YOLOv5 算 法。YOLOv5算 法 模 型 的 主 体 部 分 集 中
23、 于 进 行 特 征 融 合 的Neck 层,该层包含 YOLOv5 模型中的绝大部分卷积计算和参数。因此,本文对 Neck 层进行改进,为了在确保推理速度的情况下提高检测精度,将传 统 卷 积 换 为 结 合 标 准 卷 积 和 深 度 可 分 离 卷 积图 1YOLOv5s 6.0模型的结构Fig.1Structure of YOLOv5s 6.0 model2672023年 8月 15日Computer Engineering 计算机工程的鬼影混洗卷积(GSConv),并将最近邻法上采样替换为轻量级通用上采样算子,对特征语义信息进 行 充 分 利 用。为 了 保 证 在 卷 积 的 过
24、程 中 融 合更多小目标信息,在 Neck 层最后添加自适应空间特 征 融 合。本 文 改 进 后 的 算 法 模 型 结 构 如 图 2所示。在图 2 中,X1、X2、X3 分别表示 Backbone 层的3个输出。输入图像首先经过 Backbone网络进行特征提取,随后经过改进后的 Neck 网络进行特征融合,然后将其送到设计的检测网络中进行训练,从而得到模型的权重参数,最后利用训练好的权重参数对网络模型进行测试。2.2鬼影混洗卷积标准卷积(Standard Convolution,SConv)19是使用不同的卷积核对 3个通道同时卷积。深度可分离卷 积(Depth-Wise separa
25、ble Convolution,DWConv)20是先对 3个通道分别卷积,再通过 11的卷积核拼接起来。随着需要提取的属性的增加,深度可分离卷积 可 以 节 省 更 多 的 参 数 提 高 网 络 速 度。但 是,DWConv 比 SConv 的特征提取和融合能力低很多,在口罩检测时准确性会降低。YOLOv5 模型在 head 层进行特征融合时,空间信息会逐步转向通道传输,并且特征图的高度和宽度在进行压缩和通道扩展时,稀疏卷积会切断每个通道之间的隐藏链接,导致部分语义信息丢失。在Neck 中引入 GSConv21,最大程度地保留了通道之间的链接,在降低计算成本的同时,可以确保模型的准确率。如
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 YOLOv5 口罩 佩戴 检测 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。