基于改进YOLOv7的融合图像多目标检测方法.pdf
《基于改进YOLOv7的融合图像多目标检测方法.pdf》由会员分享,可在线阅读,更多相关《基于改进YOLOv7的融合图像多目标检测方法.pdf(7页珍藏版)》请在咨信网上搜索。
1、第 卷 第 期兵 器 装 备 工 程 学 报 年 月 收稿日期:修回日期:基金项目:国家自然科学基金项目()山西省基础研究计划资助项目()山西回国留学人员科研资助项目()作者简介:薛震()男博士副教授:.:./.基于改进 的融合图像多目标检测方法薛 震张亮亮刘 吉(.中北大学 数学学院太原 .中北大学 信息与通信工程学院太原)摘要:针对微光环境下目标检测精度较低的问题提出了一种基于改进 的微光与红外融合图像的多目标检测方法 结合可见光、红外图像的优点利用生成对抗网络法制作融合图像数据集 在 模型中引入 结构使网络更加关注整体图像信息提升特征提取能力从而提高行人和汽车检测的准确率并将回归损失函数
2、由 改进为 降低自由度加速网络收敛得到了 的改进算法 在公开数据集 和 上进行了实验 结果表明:相比可见光或红外图像 对融合图像的检测精度较高改进算法对融合图像取得了.的平均精度均值较原始 模型提高了.算法在检测行人和汽车等目标时漏检和误检率较低具有较好的准确性和实时性可以满足微光环境下多目标探测的要求关键词:目标检测图像融合深度学习本文引用格式:薛震张亮亮刘吉.基于改进 的融合图像多目标检测方法.兵器装备工程学报():.:.():.中图分类号:文献标识码:文章编号:()(.):.().().()().:引言在微光环境下的军事侦察、遥感探测、野外救援和视频监控等任务中由于有效目标区域的丢失对图
3、像融合、多尺度目标检测和图像到图像的转换等各种视觉任务都具有挑战性 在此情况下将可见光和红外图像进行融合可以提供丰富的纹理细节信息和有效的目标区域便于图像的识别检测 对融合图像进行多目标检测是指从融合后的图像数据中识别出行人和汽车等目标同时指出它们的位置和大小 传统的多目标检测算法多采用人工特征提取的方法主观性较强且特征单一难以用于微光等复杂环境下的多目标检测 而基于深度学习的多目标检测算法解决了传统方法需要人工提取特征的问题通过对大规模数据的自主学习借助深度卷积神经网络算法自行提取出目标物复杂多样的图像特征信息使其特征特异性减弱可同时适用于多种目标的检测提高了检测算法的有效性和稳定性其中以(
4、)系列 为代表的“一步法”在对目标的实时性检测方面有着卓越的表现近年来关于可见光与红外融合图像的目标检测已取得了一些研究成果 文献综述了已有的红外和可见光图像融合的 类方法(包括基于多尺度变换的、基于稀疏表示的、基于神经网络的、基于子空间的、混合方法等)及其在目标检测与识别、目标追踪、图像增强、遥感等方面的广泛应用文献提出了一种使用生成对抗网络融合()红外和可见光图像信息的方法结果表明该方法可以生成清晰的、干净的融合图像而不受红外信息上采样所引起的噪声的影响文献研究了可见光与红外图像融合目标检测问题提出了一种基于 的特征融合目标检测算法实验结果表明该算法对行人、汽车、摩托车、信号灯等多目标有较
5、高的检测精度文献针对帧间差法检测融合图像目标时会出现背景噪声的问题在利用小波变换得到融合图像后将彩色参考图像与融合图像在 空间进行颜色传递提出了一种采用帧间差法和形态学相结合的运动目标检测方法文献通过引入()通道注意力模块、优化网络结构等策略提出了一种基于 和可见光与红外图像融合的行人检测方法本研究中以 算法框架为基础通过引入()结构改进损失函数提出了一种基于改进 的融合图像的多目标检测方法该方法使网络更加关注整体图像信息有利于网络提取特征从而提高微光环境下的行人和汽车检测的准确率 目标检测算法.算法 系列算法见证了深度学习时代目标检测算法的演化 目前 是 系列中最先进的算法在速度和精度上超越
6、了、等目标检测算法 相同体量下比 快 在 的 上速度达到 达到.网络由输入()、主干网络()和头部()部分组成如图 所示 与 不同的是它将 层与 层合称为 层实际上功能未发生改变 各部分的功能与 相同如 用于提取特征 用于预测图 网络结构.薛 震等:基于改进 的融合图像多目标检测方法 的 由若干()层、高效层聚合网络()层和 层构成 由 层、若干 层、若干 层以及后续输出的重参数化结构 层等组成首先对输入的图片进行预处理对齐成 大小的 图片然后输入 网络中根据其输出在 层经过 和 输出三层不同大小的 最后得到预测结果.改进 算法.网络结构的改进自注意力机制为获取全局信息提供了新的思路使用它会使
7、模型的参数减少避免了卷积神经网络参数堆叠造成的模型臃肿现象同时也可以提高精度在计算机视觉领域使用自注意力机制的一种方法是用多头自注意()层替换空间卷积层 是一个引入自注意力机制的概念简单但功能强大的主干架构广泛应用于图像分类、目标检测和实例分割等计算机视觉任务 块是 瓶颈块的改进模型将其最后 个 空间卷积层替换为(见图)以加强网络的特征识别能力且不会增加太大的计算量 将 模型中的 改进为 超参数不变在 实例分割基准集上的 比原来提升了.在实例分割和目标检测方面显著改善了基线同时还减少了参数从而使延迟最小化 本研究中将 结构引入 对其网络结构做了如下改进:首先在 中将 层之后和末端的 结构替换为
8、 结构对输入的特征进行全局建模提高特征提取能力通过自注意力机制让网络更加关注全局性提取出更多不同的特征以区分行人、汽车和其他高亮目标的背景信息提高检测的准确率其次在 层中将全部 结构替换为 结构在减小参数量的同时更好地融合 提取的特征改进后参数量大小为.较原 模型的参数量减少了.得到改进模型 其网络结构如图 所示图 瓶颈块和 块的结构.图 网络结构.损失函数的改进损失函数的质量直接影响训练速度和探测器性能 包括回归损失()、置信度损失()和分类损失()等 种损失其中回归损失函数采用了()公式为:()()其中:和 分别表示预测框和真实框的中心点()表示这 个中心点间的欧氏距离 是同时包含预测框和
9、真实框的最小外接矩形框的对角线的长度 用来衡量两个框宽高比的一致性 为权重函数且有:兵 器 装 备 工 程 学 报:/./()().().()其中:和 分别表示真实框的宽和高 和 分别表示预测框的宽和高、()和 等损失函数主要从预测框和真实框的重叠区域、距离和长宽比等三方面进行考虑而未考虑真实框与预测框之间不匹配的方向 该不足导致收敛速度变慢且效率较低因为预测框可能在训练过程中“四处游荡”难以收敛并最终产生更差的模型 为此文献重新定义了惩罚指标提出了()损失函数 损 失 包 括 角 度 损 失()、距 离 损 失()、形状损失()和 损失()部分 角度损失:()()()其中:()()()为两框
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 改进 YOLOv7 融合 图像 多目标 检测 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。