面向小目标的YOLOv5s安全帽佩戴检测.pdf
《面向小目标的YOLOv5s安全帽佩戴检测.pdf》由会员分享,可在线阅读,更多相关《面向小目标的YOLOv5s安全帽佩戴检测.pdf(9页珍藏版)》请在咨信网上搜索。
1、面向小目标的 YOLOv5s 安全帽佩戴检测李冰涛,李大海(江西理工大学信息工程学院,赣州341001)通信作者:李冰涛,E-mail:摘要:本文介绍了一种新的基于 YOLOv5s 的目标检测方法,旨在弥补当前主流检测方法在小目标安全帽佩戴检测方面的不足,提高检测精度和避免漏检.首先增加了一个小目标检测层,增加对小目标安全帽的检测精度;其次引入ShuffleAttention 注意力机制,本文将 ShuffleAttention 的分组数由原来的 64 组减少为 16 组,更加有利于模型对深浅、大小特征的全局提取;最后增加 SA-BiFPN 网络结构,进行双向的多尺度特征融合,提取更加有效的特
2、征信息.实验表明,和原 YOLOv5s 算法相比,改善后的算法平均精确率提升了 1.7%,达到了 92.5%,其中佩戴安全帽和未佩戴安全帽的平均精度分别提升了 1.9%和 1.4%.本文与其他目标检测算法进行对比测试,实验结果表明 SAB-YOLOv5s算法模型仅比原始 YOLOv5s 算法模型增大了 1.5M,小于其他算法模型,提高了目标检测的平均精度,减少了小目标检测中漏检、误检的情况,实现了准确且轻量级的安全帽佩戴检测.关键词:YOLOv5s;安全帽佩戴检测;ShuffleAttention 注意力机制;SA-BiFPN引用格式:李冰涛,李大海.面向小目标的 YOLOv5s 安全帽佩戴检
3、测.计算机系统应用,2023,32(8):221229.http:/www.c-s- Helmet Wearing Detection for Small TargetsLIBing-Tao,LIDa-Hai(SchoolofInformationEngineering,JiangxiUniversityofScienceandTechnology,Ganzhou341001,China)Abstract:Inthisstudy,anewtargetdetectionmethodbasedonYOLOv5sisintroducedtomakeupforthedeficienciesofthec
4、urrentmainstreamdetectionmethodsintermsofdetectionprecisionandmisseddetectionofsmalltargethelmetwearing.Firstly,asmalltargetdetectionlayerisaddedtoincreasethedetectionprecisionofthesmalltargethelmet.Secondly,theShuffleAttentionmechanismisintroduced.ThenumberofShuffleAttentiongroupsisreducedfrom64to1
5、6inthisstudy,whichismoreconducivetotheglobalextractionofthedepthandsizeofthemodel.Finally,theSA-BiFPNnetworkstructureisaddedtocarryoutthebidirectionalmulti-scalefeaturefusiontoextractmoreeffectivefeatureinformation.ExperimentsshowthatcomparedwiththeoriginalYOLOv5salgorithm,theaverageprecisionoftheim
6、provedalgorithmisincreasedby1.7%,reaching92.5%.Theaverageprecisionofthealgorithmswithandwithouthelmetsisincreasedby1.9%and1.4%respectively.Theproposeddetectionalgorithmiscomparedwithothertargetdetectionalgorithms.TheexperimentalresultsshowthattheSAB-YOLOv5salgorithmmodelisonly1.5Mlargerthantheorigin
7、alYOLOv5salgorithmmodel,whichissmallerthanotheralgorithmmodels.Itimprovestheaverageprecisionoftargetdetection,reducestheprobabilityofmissingandfalsedetectioninsmalltargetdetection,andachievesaccurateandlightweighthelmetwearingdetection.Key words:YOLOv5s;helmetwearingdetect;ShuffleAttentionmechanism;
8、SA-BiFPN计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Applications,2023,32(8):221229doi:10.15888/ki.csa.009197http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041收稿时间:2023-02-08;修改时间:2023-03-08;采用时间:2023-03-14;csa 在线出版时间:2023-05-22CNKI 网络首发时间:2023-05-24SoftwareTechniqueAlgorithm软件技术算法221始终把安全生产
9、放在第 1 位,尤其是在建筑施工领域这样长期有较高风险的环境中.目前,建筑行业仍属于安全事故高频发的行业,参加施工人数的逐年递增,是一个不可忽视的庞大群体1.而安全帽作为生产工作者的必备安全工具,它能够起到缓冲和减震的作用,还能分散一定的压力,对于保护人的头部来说作用很大.如果没有佩戴安全帽,就会失去对头部的保护,佩戴人员非常容易受到伤害.因此,在施工现场,要求现场人员必须要佩戴安全帽,并且要正确佩戴,最大程上减少安全风险2.所以,对安全头盔的配戴状况进行监测,对于保障工人的生命健康有着十分重大的现实意义.现阶段,目标检测算法可以分为两个主流方向:一种是基于回归策略的单阶段检测算法,如 SSD
10、3、YOLO 系列47、RetinaNet8等.这类算法的核心理论是将图像输入模型,直接返回目标的边界锚框、位置和类别信息.另一种是基于优化候选区域的两阶段检测算法,主要有 R-CNN9、FastR-CNN10、FasterR-CNN11和 R-FCN12等.这类算法主要是在第 1 阶段从图像中生成一个候选区域,然后在第 2 阶段将候选区域输入到卷积神经网络中,利用分类器对结果进行类别的判定.这两种方法都有各自的优点,其中单阶段的检测方法具有更高的时效性,在实时性上有很大的优越性,而两阶段的检测方法平均精度更高,识别的结果更准确.上述两类算法在安全帽佩戴检测中均有大量运用,但存在对小目标安全帽
11、检测效果不佳的问题.2021 年李鹏13在 FasterR-CNN 的基础上增加可变形卷积和可转换空洞卷积,获得了一个能够自适应目标尺度转换的多尺度安全帽佩戴检测网络结构,其平均准确度较当时最优的模型有所改善,但对于小目标安全帽以及遮挡目标的检测效果并不理想.Song14在 YOLOv3的基础上提出压缩激励的 RSSE 模块用于加强特征提取,采用四尺度特征预测代替三尺度特征预测,并且改进了 CIOU 损失函数,该方法在提高了探测准确率和速度的同时,也提高了探测的速度,但是在小物体上,其探测效率不高,而且容易受到光线的干扰.杨贞等15基于 YOLOv4 并且采用深层次的网络模型替换传统的深度特征
12、网络模型,具有良好的健壮性,但对于远距离小目标安全帽佩戴检测的误检率较高,存在人员密集场景下检测不出的情况.此外,由于图像中的小目标具有较低的特征表示和较低的分辨率,以及在人群中很容易发生遮挡等特点,针对小目标安全帽检测也成为了研究的重难点.吕宗喆等16基于 YOLOv5 算法对损失函数的计算方法进行了优化,并且加入了切片辅助微调和推理,让小目标能够产生更大的像素面积,从而提高了网络的微调与推断能力.李嘉信等17提出了一种多维空间注意力模型,对各维度的空间特性进行融合,同时结合特征提取过程中的多种特征,实现了在特征抽取中对多维信息的有效获取.朱玉华等18在 FasterR-CNN 的基础上将
13、ResNet101 和 FPN 进行了融合,形成了一个多尺度的特征提取网络.在安全帽识别过程中,对安全帽识别器的大小进行了适当的调节,使得安全帽识别器能够覆盖全部的目标区.这些方法都旨在保留小目标的特征,加强特征提取过程.受此启发,本文也将其作为切入点进行研究.本文基于安全帽佩戴检测任务,并且针对小目标检测,提出了一种改进的 YOLOv5s 算法.在确保检测准确率的同时,尽量加快检测的效率,本文使用了基于YOLOv5s 的轻型算法.首先,在小物体探测中加入一个小型物体探测层次,以提高其探测准确率.其次,针对特征提取不充分问题,在 YOLOv5s 中加入了改进的 ShuffleAttention
14、 注意力机制,其对特征通道进行分组,并对每个子特征同时使用空间和通道注意力机制,最终让不同组的特征进行融合.最后,为了提取更加有效的特征信息,提高目标的检测精度,提出了 SA-BiFPN网络结构,将改进的 ShuffleAttention 注意力机制和BiFPN 结构融合,采用双向多尺度特征融合技术,可以增强模型的学习性能,减少漏检率.1YOLOv5s 的网络结构YOLOv5 是目前 YOLO 系列算法中最优秀的一代,其精度高,运行速率快,而且体积较少.YOLOv5 共有 5 种模型:YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l 和 YOLOv5x.它们之间最大的差异在于,在
15、特定的网络中,特征提取模块的数量是和卷积核有差别的.模型大小和参数数目在 5 种不同的版本中依次递增.鉴于安全帽佩戴检测对实时性和轻量化方面的需求,本文从模型的大小、效率和准确度等角度出发,选择 YOLOv5s 作为改进的算法框架.YOLOv5s 网络主要由 4 部分组成:input、back-bone、neck 和 head.Input 中使用了Mosaic 的数据强计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第8期222软件技术算法SoftwareTechniqueAlgorithm化技术,将 4 幅照片采用随机放缩、随机剪切以及随机排列的方式进行拼接,大大丰富
16、了检测数据集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更好19.Backbone 主干网络主要的作用是用来提取图片特征,其主要由 CBS、C3、SPPF 等模块组成.CBS 从图像中提取特征,然后使用 C3 来减少计算量和内存,有利于加快推理速度,SPPF 为空间金字塔池化层,通过不同池化核大小的最大池化进行特征提取,提高网络的感受野.Input 还引入了基于图像的自适应性调整和基于图像扩展的算法.Backbone 部分是 YOLOv5s 的主干网络,是用来提取特征的网络.主要由 CBS、C3、SPPF 等模块组成,CBS 对图像提取特征,之后用 C3 降低计算量和内存,有利于加快推理速
17、度,SPPF 为空间金字塔池化层,通过不同池化核大小的最大池化进行特征提取,提高网络的感受野.Neck 中使用了PANet的构造方法,它可以提高模型在不同比例下的检测器,从而可以区分出相同尺寸和尺寸的相同目标.Head 部分是 3 个 Detect 检测器,利用基于网格的 anchor 在不同尺度的特征图上进行目标检测,输入大小为 640640 的图像,那么输出的检测层尺度为 8080、4040 和 2020.2改进的 YOLOv5s 算法 2.1 添加改进的 ShuffleAttention针对图像中较小的物体,由于其所占的像素较少,且容易受到周围环境等因素的影响,使得原有 YOLOv5模型
18、在进行卷积取样时,小目标的特征信息很容易丢失,因此本文引入 ShuffleAttention(SA)20注意力机制,告知模型应该更多地注意哪些地方.对于小型和集中的对象,该方法能有效地进行特征信息的提取,从而进一步提高了检测的精度.注意力机制主要分为两类,一类是空间注意力机制,另一类是通道注意力机制.通过不同的聚合策略、变换和增强函数,将不同位置的相同特征聚合起来,分别去获取像素对之间的关系和通道依赖关系.虽然将二者结合起来可能会获得更优的表现,但还是会不可避免地增加算力消耗,比如 CBAM21,而 SA 可以解决此类问题.SA 可以将两种注意力机制有效地结合起来,并且模型的复杂度较低,计算量
19、小.X RCHWC,H,WXGX=X1,XG Xk RC/GHWXkXkXk1,Xk2RC/2GHW首先对于给定的特征图,其中分别是通道数、空间高度和宽度.SA首先沿着通道维度将 划分为 个组,即,在训练过程中每个子特征逐渐地获取一个语义响应.然后利用注意力模块,让每个子特征都生成一个对应的重要度系数.在任意一个注意力单元的开始时刻,的输入会沿着通道维度,使其分为两个分支,.如图 1,一个分支利用通道间的相互关系,输出通道注意力图,另一个分支则会利用特征的空间关系,输出空间注意力图.这样,模型就可以关注在那些有意义的信息上.然后两个分支的结果会被拼接起来,使得通道个数与输入的个数相同.最后,所
20、有的特征会被聚合起来,沿着通道维度实现跨组信息交流.通道注意力和空间注意力的输出表示分别如式(2)、式(3)所示:s=1HWHi=1Wj=1Xk1(i,j)(1)Xk1=(W1s+b1)Xk1(2)Xk2=(W2GN(Xk2)+b2)Xk2(3)cC/GC/2GC/2GGNFuseFusehGroupSplitgpc()c()()()CCSSAggregateElement-wiseproduct(x)=Wx+bChannelshuffleConcat()=Sigmoid()c.X图 1SA 模块结构图2023年第32卷第8期http:/www.c-s-计 算 机 系 统 应 用Softwar
21、eTechniqueAlgorithm软件技术算法223W1 RC/2G11b1 RC/2G11sW2,b2RC/2G11其中,和用于缩放和平移,GN 为 GroupNorm,用于获取空间统计数据,而是形状为的参数.W1,b1,W2,b2C/2G3C/GG值得注意的是,和 GN 超参数为SA 中引入的参数.在单个 SA 模块中,每个分支中的通道数为,因此单个 SA 模块中的总参数为.但其实 SA 模块的总参数相对于 YOLOv5s 网络百万级别的参数量来说微不足道,而且参数 的不同取值对通道注意力有较大的影响,因此本文考虑从分组数作为切入点进行改进.GGSA 的作者设置默认的 为 64,也就是
22、将特征图分为 64 组,这样虽然让参数量有所降低,但过多的分组会降低通道注意力的效果,使得组与组之间的通信变弱,影响小目标的检测精度.经过实验探究(如图 2 所示),在可能不添加更多参数的情况下,同时尽可能地提高检测的平均精确度,本文选择将特征图分成 16 组,即设置为 16,这样在增加少量参数的情况下,让SA 注意力机制更适合于本文的小目标检测,检测精度更高.算法流程如算法 1 所示.算法 1.改进 G 为 16 的 SA 注意力机制XX=X1,X16X1)输入特征映射,沿着通道尺寸将其分为 16 组,即,并且每组 逐渐捕获训练过程中的特定语义响应;X2)将每组 分为两部分,一部分使用通道注
23、意力,另一部分使用空间注意力;3)对两个部分按通道数进行叠加,实现组内的信息融合;X4)对所有的 进行随机混合操作,使不同组之间进行信息流通;5)输出特征图.24816平均精确度(%)326491.491.491.892.091.891.691.191.391.591.791.992.1G(组)图 2G 的不同取值对平均精确度的影响SA-16(将 SA 中对特征图的分组设置为 16)模块不但可以提取图像更多的基本特征,还可以加强特征间的相关信息交流,有利于模型对深浅、大小特征的全局采集,从而提高模型的准确率.并且 SA-16 引用的参数量并不多,保证了模型的轻量性.2.2 改进的多尺度特征融合
24、网络 SA-BiFPN低层神经网络具有较低的感知范围和较好的特征表达,具有很好的解析度,但对语义的描述能力不够全面.与之相反,随着网络层次的增加,感知范围会越来越大,语义表达也会越来越好,但同时也会影响到图像的解析度.在进行多层次的卷积运算之后,许多细节特性会逐渐模糊,对图像的描述也会减弱,这也是小目标检测困难的原因之一.因此,为了获得强语义性的特征,更好地检测出小目标对象,多尺度特征融合应运而生.目前常见的特征融合网络有 FPN22、PANet23和 BiFPN24等.FPN 特征金字塔结构首先对特征点进行不断的下采样后,拥有了一堆具有高语义内容的特征层,然后重新进行上采样,使得特征层的长宽
25、重新变大,用大尺寸的特征图去检测小目标.PANet 相较于FPN 增加了一条自底向上的通道,用于缩短层之间的路径,还提出了自适应特征池和全连接融合两个模块,保证特征的完整性和多样性.BiFPN 给各个特征层赋予了不同权重去进行融合,让网络更加关注重要的层次.为了提取更加有效的特征信息,本文提出了 SA-BiFPN 网络结构,将 SA-16 和 BiFPN 结构相结合.首先从骨干网络 SA-16 层中提取不同大小的特征图,然后通过水平连接与下采样层进行第一次特征融合,再通过跳跃连接与相同尺度下的上采样层和下采样层进行第 2 次特征融合,最后得到多尺度融合特征图25.SA-BiFPN 网络结构图如
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 面向 目标 YOLOv5s 安全帽 佩戴 检测
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。