改进YOLOx的风机叶片缺陷检测研究.pdf
《改进YOLOx的风机叶片缺陷检测研究.pdf》由会员分享,可在线阅读,更多相关《改进YOLOx的风机叶片缺陷检测研究.pdf(6页珍藏版)》请在咨信网上搜索。
1、Computer Era No.9 20230 引言内蒙古、新疆等地,风力发电的应用较为广泛。由于地处北方,沙尘较多,极易对叶片表面造成损伤。及时检测出损伤位置及损伤类别并加以维护,可延长叶片的使用寿命。现有检测方法有两类,一是根据无缺陷叶片表面和缺陷叶片表面反射率的不同进行缺陷类型诊断,但所有设备造价高昂;二是基于深度学习计算机视觉的风机叶片缺陷检测方法,其凭借检测速度快、成本低,逐渐成为主流。基于计算机视觉的方法又分为两类:一类是基于区域先验框的两阶段算法,如Faster R-CNN1;另一类是基于回归的单阶段算法,如SSD2、YOLO3等。曹锦纲4等研究了基于鲁棒主成分分析(RPCA)和
2、视觉显著性的表面缺陷检测,得到较高的准确率,但此研究未涉及复杂背景下的缺陷检测。胡翔宇5采集音频信号特征做降噪处理,搭建BP神经网络的三层结构,DOI:10.16644/33-1094/tp.2023.09.022改进YOLOx的风机叶片缺陷检测研究*郝伟勋,李建军(内蒙古科技大学信息工程学院,内蒙古 包头 014010)摘要:针对风机叶片表面缺陷识别率低、背景复杂及目标尺度差异大等问题,提出一种改进YOLOx-s的风机叶片缺陷检测方法。在YOLOx-s颈部输出端引入轻量型通道注意力机制提取图像深层次信息,提升缺陷检测准确率;构建特征提取能力更强的残差结构替换主干网络中的Resunit,通过调
3、整残差结构感受野,增强对小目标缺陷的检测能力;经无人机实景拍摄采集叶片表面缺陷信息,使用Imgaug数据增强技术对数据集进行扩充。实验表明,改进后的网络模型对自建数据集的检测速度为39帧/秒,与YOLOx-s网络模型相比,mAP值从93.18%提高到96.61%。实现了风机叶片表面缺陷的高精度、高速度以及高鲁棒性检测。关键词:风机叶片;深度学习;目标检测;YOLOx-s中图分类号:TP391文献标识码:A文章编号:1006-8228(2023)09-106-05Research on the defect detection of fan blades based on YOLOxHao We
4、ixun,Li Jianjun(School of Information Engineering,Inner Mongolia University of science and technology,Baotou,Inner Mongolia 014010,China)Abstract:Aiming at the problems of low recognition rate,complex background,and large difference in target scale of fan bladesurface defects,a defect detection meth
5、od for fan blades based on improved YOLOx-s is proposed.A lightweight channel attentionmechanism is introduced at the neck output of YOLOx-s to extract the deep information of the image and improve the defectdetection accuracy.A residual structure with stronger feature extraction ability is construc
6、ted to replace the Resunit in the backbonenetwork,and the detection ability of small target defects is enhanced by adjusting the receptive field of the residual structure.Theblade surface defect information is collected by UAV live shot,and the dataset is expanded using Imgaug data enhancementtechno
7、logy.The experiment shows that the detection speed of the improved network model for the self built dataset is 39 frames/second.Compared with the YOLOx-s network model,the mAP value is increased from 93.18%to 96.61%.It realizes the detectionof surface defects of fan blades with high accuracy,high sp
8、eed and high robustness.Key words:fan blade;deep learning;target detection;YOLOx-s收稿日期:2023-02-27*基金项目:内蒙古自治区自然科学基金(2020MS06009)作者简介:郝伟勋(1998-),男,内蒙古呼和浩特人,硕士研究生,主要研究方向:人工智能、模式识别。通讯作者:李建军(1977-),男,内蒙古包头人,博士,副教授,主要研究方向:人工智能、模式识别等。106计算机时代 2023年 第9期识别准确率达到93.75%,但该方法模型搭建复杂,且对小目标缺陷检测效果差。张超6等采用以Mask R-CN
9、N为基础的网络框架,提高检测速度,但准确率仅为80.6%。曲忠侃7等针对风机叶片检测成本高、效率低等问题,提出基于 Faster R-CNN 的胶衣脱落缺陷检测方法,平均准确率达到92.6%,但缺陷类别少,难以满足实际需求。李亦伦8等利用Mosaic数据增强以及改进目标检测 YOLOv4 算法,风机叶片缺陷检测mAP 值达 83%。YOLO 系列凭借其出色的性能在风机叶片缺陷检测领域受到广泛关注。现有研究方法存在以下不足:所选取网络架构的局限性,以v3网络模型为例,其对小目标有效特征的提取能力差;缺陷图像背景复杂、缺陷类别多且尺度差异大。如“沙眼”属于典型的小目标,而“油污”、“脱漆”目标较大
10、。针对上述问题,本文以YOLOx-s网络为基础,改进网络内部的残差结构,并融合注意力机制。改进后的网络模型大幅提升mAP值的同时对上述不足带来的问题有了明显改善。1 YOLOX算法原理1.1 输入端、主干网络及颈部YOLOx-s以YOLOv3-spp9为基础进行改进。算法框架主要分为四个部分:输入端(Input)、主干网络(Backbone)、颈部(Neck)以及预测(Prediction)10。输入端、主干及颈部网络结构如图1所示。图1输入端、主干及颈部网络结构输入端Focus层结构由切片操作和基础卷积运算组成,使得输入的三通道图像扩充为12通道,在保证低参数量和计算量的同时,完成下采样操作
11、。主干网络由CBS、CSPLayer、SPP构成,其中CBS模块包含卷积层、BN 层和激活函数;CSPLayer 模块采用残差结构,内部包含 Resunit,加深了网络的总体深度。SPP模块由池化核大小为55、99、1313的池化操作(Maxpool)和基础卷积组成,用于扩大感受野且不显著增加模型尺寸。主干网络提取的不同尺度特征层由颈部进行深度特征提取及通道融合。其主要由特征金字塔网络(feature pyramid network,FPN)、CBS模块、CSPLayer模块构成。将融合后的特征信息 P1_out、P2_out、P3_out输出到预测端。1.2 预测目标检测任务中,同一个检测头
12、检测物体的位置和类别会严重影响检测速度和准确率。鉴于定位和分类任务关注的重心不同,YOLOx-s使用Decoupledhead对此进行优化。预测端网络结构如图2所示。图2预测网络结构融合后的特征经 CBS、卷积层及激活函数作用,形成三个分支结构,cls_output对目标框类别进行分数预测,obj_output对前、背景进行判别,reg_output预测107Computer Era No.9 2023目标框的坐标信息(x,y,w,h)。最后经Concat操作,得到不同维度的特征信息。此外,引入 Anchor-free检 测 器 和 SimOTA(SimplifiedOptimalTransp
13、ortAssignment)标签分配机制以及Focal Loss损失数。1.3 损失函数YOLOx-s损失由IOU损失、类别损失、置信度损失三部分构成。IOU损失指交并比。IOU=A BA B其中,A为预测框;B为真实框。IOU损失如式:LossIOU=1-IOU2类别损失和置信度损失使用BCEWith LogitsLoss计算,如式、式:lossc=l1,lNln=-ynlog()()x+()1-ynlog()1-()xn其中,N为batch size,本文中设置为4。每个批次预测n个标签,c为风机表面缺陷类别,()x表示sigmoid函数。损失函数表达式如下:Loss=Weight()Lo
14、ssIOU+Lossobj+Losscls2 网络模型构建针对风机叶片缺陷检测任务中存在背景干扰、缺陷类型多、目标尺寸差异大等问题,构建如图3所示的网络框架。图3网络搭建主干网络由CBS、CSPLayer、SPP、以及替换Resunit使用的残差模块(11Conv Resunit,CR)构成。颈部输出不同维度的特征信息,通过轻量型通道注意力机制(Efficient Channel Attention,ECA)连接到预测端,强化网络整体对叶片表面缺陷的感知能力。2.1 CR残差模块深度残差网络作为一类极深的体系结构出现。实际应用中衍生出不同种类的残差模块。Resunit采用传统结构,如图4(a)
15、所示。残差部分由CBS模块构成,对浅层特征做进一部提取,经addition与直接映射部分进行通道融合。其特点在于,提升了网络总体深度,可有效避免训练过程中梯度消失、梯度爆炸等问题。但结构简单,卷积核大小均为33,在小目标和被检测目标尺度差异大的数据集上进行检测,性能明显不足。CR残差模块结构如图4(b)所示,直接映射部分添加11卷积进行降维,一定程度上减小主干网络的计算量,卷积核越小,感受野则越小,提取到的特征更为直观。残差部分卷积核大小为33、55,卷积核大,则提取的信息语义层次更高,同时将第二个CBS结构中的SiLU激活函数移动到addition后面。利用SiLU激活函数无上界有下界、平滑
16、、非单调的特性对不同卷积核提取到的featuremap整体进行激活运算。(a)Resunit结构图(b)CR结构图图4CR模块设计CR模块数学函数表达如式所示。y=h()x+f(x)1+exp-()h()x+f()x其中,x为输入,y为输出,h(x)为直接映射部分的11卷积操作,f(x)表示残差部分卷积、BN等一系列操作。相较于Resunit,CR残差模块具有更好的特征提取能力,有利于小目标和目标尺度差异大的缺陷检测。2.2 颈部融合注意力机制缺陷检测受复杂背景影响较大,特征提取过程中存在噪声干扰。注意力机制通过挖掘各通道之间的相互联系,学习不同通道特征的重要程度,使得网络在运行过程中更好的关
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 改进 YOLOx 风机 叶片 缺陷 检测 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。