基于改进CenterNet的电力设备红外图像识别.pdf
《基于改进CenterNet的电力设备红外图像识别.pdf》由会员分享,可在线阅读,更多相关《基于改进CenterNet的电力设备红外图像识别.pdf(7页珍藏版)》请在咨信网上搜索。
1、由于受到变电站复杂背景的影响,所以传统目标检测算法无法准确识别和定位电力设备。提出了一种基于改进中心点网络()的电力设备红外图像识别模型。首先,针对复杂环境下目标特征信息不足的问题,使用特征提取能力更强的 作为 的主干网络,在保持原模型参数量不变的同时增加了网络宽度,使其能获取更加丰富的特征信息,从而提升检测的精度;然后,通过在预测层加入通道注意力机制来提升模型对重要目标的关注度,同时抑制无关信息干扰,保证了模型检测的鲁棒性;最后,为证明模型的有效性,在自制数据集上进行了实验验证。结果表明,改进后模型的均值平均准确率可达 ,相比原始模型提升了 ,优于现有的几种主流检测模型,有效提升了变电站复杂
2、环境下电力设备红外图像识别的精度。关键词:电力设备;红外图像;中心点网络中图分类号:文献标志码:文章编号:(),(,):,蒋志哲,等:基于改进 的电力设备红外图像识别 ,:;变电站电力设备是电网的重要组成部分,实时监控电力设备的状态对于保证电力系统安全稳定运行具有重要意义。红外热成像技术可以获取设备的温度信息,已广泛用于监测变电设备的运行状态 。面对海量的巡检图像数据,目前主要依靠专业人员对电力设备的红外图像进行分析和识别,但这种方式不仅效率低下且容易发生误判 。因此,如何快速而准确地定位和识别红外图像中的电力设备具有十分重要的研究意义。传统的检测方法往往通过提取纹理、温度分布等特征来进行目标
3、检测。文献 通过提取高压绝缘套管的特殊纹理特征,并基于聚类算法完成目标的分析识别。文献 通过提取绝缘子的绝对温度、纹理和相对温差率作为特征集,完成劣化绝缘子的状态识别。虽然这些方法可以完成识别任务,但检测速度较慢,精度也易受环境影响,不适用于具有复杂环境的变电站场景。近年来,深度学习在图像识别领域发展迅速,与机器学习相比,其检测速度更快、精度更高,逐渐取代了传统的检测算法。目前,基于深度学习的目标检测根据是否设置锚框分为有锚框算法和无锚框算法。其中,有锚框算法又分为二阶段算法和一阶段算法。二阶段算法需要先生成候选框,再完成目标分类和定位。这种方法一般精度很高,但速度相对较慢,经典模型有快速区域
4、卷积神经网络(,)和更快速区域卷积神经网络(,)等。文献 在 网络模型的输出部分引入精炼阶段,增加目标特征的分类和回归细化,实现了精确分类及坐标定位。一阶段算法不用生成候选框,直接进行分类和定位操作,相比二阶段算法具有更快的检测速度,其代表算法有单步多阶目标检测(,)、实时快速(,)目标检测系列模型。文献 针对红外图像尺度差异性大的问题,在 模型的基础上引入多尺度卷积模块,相比原始算法检测精度提高了约 。无锚框算法将目标作为一个点,可以兼顾识别的速度和精度。该类算法包括 、()目标检测 等。文献 提出了一种基于 的安全帽检测算法,改进了模型的损失函数以提高检测精度,并通过实验证明了该方法的有效
5、性。上述方法虽然在一定程度上提高了检测效果,但在变电站复杂环境下,目标具有的特征较少,难以提取到足够的特征信息,且受到背景等无关信息的影响会导致目标特征不明显,检测精度也会下降。针对变电站复杂背景影响下传统目标算法检测精度较低的问题,本文提出了一种基于改进结构的 电力设备红外图像识别算法。使用比原特征提取能力更强的 网络作为模型的主干网络,在不改变模型参数量的同时拓宽了网络,使其能够提取到多维特征信息,从而增强模型的检测能力;在预测层加入压缩和激励(,)注意力模块(以下简称“模块”),使模型更加关注重要信息,削弱了背景信息的干扰,进一步提高检测的精度。模型 网络结构 是一种无锚检测算法,不需要
6、预先设置锚点参数,同时放弃非极大抑制操作 ,在检测精度和速度方面要优于其他基于锚点的检测算法。的网络结构如图 所示。其中主干网络以 为例,主要包括主干网络、上采样网络和预测层 个部分。首先,输入分辨率为 的红外图像,通过主干网络 提取图像特征,并经过多次下采样操作得到 的初始特征图;然后,在上采样网络进行 次反卷积,得到 的高分上海电力大学学报 年辨率特征图;最后,将从上采样网络得到的特征图进行 次不同卷积,分别用来预测热力图、预测框尺寸以及中心点偏移,通过三者的预测结果即可输出检测框。图 网络结构 损失函数在模型训练前,使用高斯核将所有目标的现实中心点映射到热力图上,形成热力图标签。其公式为
7、 ()()()式中:热力图标签值,、为特征图的宽度和高度,为目标的类别数;、热力图中点的横、纵坐标;、中心点下采样后向下取整得到的横、纵坐标;目标自适应标准差 。模型训练的损失函数由中心点预测损失、目标中心的偏移损失 和目标尺寸损失 组成,每个损失函数都有其相应的权重。中心点预测损失 是焦点损失函数 的改进版本。其公式为()(),()()(),()式中:中心点的总数量;预测出目标的概率;、中心点损失的超参数。在预测阶段,将对输入图像进行下采样,图像分辨将从 压缩到 ,这会导致映射到低分辨率图像的中心点坐标出现偏移,所以模型使用平均绝对值误差来训练目标中心的偏移损失 ,具体公式为 ()()式中:
8、中心点坐标;模型预测的中心点偏移值;下采样倍数;下采样 倍后向下取整得到的坐标。与目标中心偏移损失类似,目标尺寸损失 仍使用平均绝对值误差来训练。其公式为 ()式中:第 个目标的预测尺寸;第 个目标的实际尺寸。模型的总损失函数 为上述 种损失函数的加权和,表示为 ()式中:、权重参数,分别取 和 。改进的 模型虽然原始的 模型已具备较为出色的检测能力,但面对变电站的复杂环境,检测精度仍略有不足,因此本文将 作为基础模型,提出了一种改进 的电力设备红外图像识别模型。其网络结构如图 所示。图 改进的 模型网络结构在主干网络部分,本文使用相比 具有更强特征提取能力的 网络,使模型能够从分辨率较低的电
9、力设备红外图像中提取更多特征,从而提高检测的精度。在预测层中,本文添加了能够判断特征的 模块,使模型能够更加关注图像中的重要目标,减弱了背景环境等无用信息的影响。主干网络变电站电力设备种类繁多且红外图像清晰度蒋志哲,等:基于改进 的电力设备红外图像识别差,许多图像中包含的目标特征信息较少,导致检测精度下降。本文使用 网络代替原始 模型中的 网络。它能够在几乎不改变模型参数量的前提下,通过增加网络宽度来提取更加丰富的目标特征,进而提高模型的检测准确度。和 的区块结构如图 所示。图 和 的区块结构首先,网络通过分组卷积 将输入特征分为 组来拓宽网络;然后,对分组特征使用 卷积来降低通道维数;同时,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 CenterNet 电力设备 红外 图像 识别
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。