基于特征与区域定位增强的遥感舰船目标检测.pdf
《基于特征与区域定位增强的遥感舰船目标检测.pdf》由会员分享,可在线阅读,更多相关《基于特征与区域定位增强的遥感舰船目标检测.pdf(8页珍藏版)》请在咨信网上搜索。
1、第 49卷 第 8期2023年 8月Computer Engineering 计算机工程基于特征与区域定位增强的遥感舰船目标检测宋志娜1,李莎1,杨建明2,徐川1(1.湖北工业大学 计算机学院,武汉 430000;2.火箭军指挥学院 勤务保障系,武汉 430012)摘要:高分辨率遥感图像在海上监视、海上搜救、海上运输等军用和民用领域的舰船检测方面有着广泛的应用。然而高分辨率光学遥感图像舰船目标检测通常存在背景复杂、目标方向任意、尺度多变等问题,导致检测精度不高。提出一种基于特征和区域定位增强的旋转检测算法 RetinaNet-MPD。通过添加一个多尺度特征融合模块,充分融合不同尺度、不同层级的
2、特征信息,以增强不同尺度特征图的特征表示能力。针对复杂背景下的舰船目标检测,提出极化双重注意力网络,通过在注意力网络后加入极化函数,充分提取目标的关键特征,同时抑制不相关信息,以有效区分目标和背景。此外,为更准确地定位舰船目标,在对正负样本进行训练时采用一种动态锚学习方法,从而动态选择目标区域内具有良好定位潜力的高质量锚,提高舰船目标检测精度。实验结果表明,RetinaNet-MPD算法在DOTA舰船和HRSC2016数据集上的检测精度分别为89.3%和85.8%,相比现有旋转目标检测算法的检测精度有所提升。关键词:高分辨率遥感图像;舰船目标检测;多尺度特征融合;极化双重注意力网络;动态锚学习
3、开放科学(资源服务)标志码(OSID):源代码链接:https:/ J.计算机工程,2023,49(8):257-264.英文引用格式:SONG Z N,LI S,YANG J M,et al.Remote sensing ship target detection based on feature and region localization enhancement J.Computer Engineering,2023,49(8):257-264.Remote Sensing Ship Target Detection Based on Feature and Region Locali
4、zation EnhancementSONG Zhina1,LI Sha1,YANG Jianming2,XU Chuan1(1.School of Computer Science,Hubei University of Technology,Wuhan 430000,China;2.Service Support Department,Rocket Army Command Academy,Wuhan 430012,China)【Abstract】The use of high-resolution remote sensing imagery for ship detection has
5、 a wide range of applications in military and civilian fields,such as maritime surveillance,search and rescue,and transportation.However,in high-resolution optical remote sensing images,complex environment as well as arbitrary directions and variable scales of ship targets lead to poor detection acc
6、uracy.To address these limitations,a rotation detection algorithm,known as the RetinaNet-MPD,is proposed based on feature and region localization enhancement.First,the RetinaNet-MPD adds a multi-scale feature fusion module,which entirely integrates feature information at different scales and levels,
7、to enhance the feature representation ability of feature maps at different scales.Second,a Polarized Dual-Attention Network(PDANet)module is proposed for ship target detection in a complex environment.By adding a polarization function after the attention network,the key features of the target are en
8、tirely extracted,and irrelevant information is suppressed to effectively distinguish the target from its surrounding.In addition,a Dynamic Anchor Learning(DAL)method is adopted when training the positive and negative samples to dynamically select high-quality anchors with good localization potential
9、 in the target region and improve the accuracy and precision of ship target detection.The experimental results show that RetinaNet-MPD algorithm achieved detection accuracy of 89.3%and 85.8%on the DOTA-Ship and HRSC2016 data sets,respectively.Consequently,the average detection accuracy was improved
10、effectively compared with other existing rotating-target detection models.基金项目:湖北工业大学博士启动基金(BSQD2020056)。作者简介:宋志娜(1990),女,讲师、博士,主研方向为遥感图像目标检测;李 莎,硕士研究生;杨建明(通信作者),讲师、博士;徐 川,副教授、博士。收稿日期:2022-08-03 修回日期:2022-10-03 Email:开发研究与工程应用文章编号:1000-3428(2023)08-0257-08 文献标志码:A 中图分类号:TP391.412023年 8月 15日Computer
11、Engineering 计算机工程【Key words】high-resolution remote sensing imaging;ship target detection;multi-scale feature fusion;Polarized Dual Attention Network(PDANet);Dynamic Anchor Learning(DAL)DOI:10.19678/j.issn.1000-3428.00654250概述 近年来,随着遥感技术的不断发展,遥感图像目标检测1-3已成为遥感图像解译领域中的重要研究方向之一。遥感图像中的舰船目标作为海上活动的主要载体,对其进
12、行检测能在军事和民用领域发挥重要作用4-6。在军事领域,可以监视敌方舰船部署、了解敌军作战实力、保卫我国领土等;在民用领域,可以进行海上的交通运输、渔业的管理、遇难船只的救援、打击走私犯罪等。深度学习的快速发展促进了目标检测算法的革新。目前,根据检测的步骤,基于深度学习的目标检测算法可分为两类:一类是两阶段(two-stage)检测,以 Faster R-CNN7为代表的两阶段目标检测算法提出区域建议网络(Region Proposal Network,RPN),利用 RPN 生成一系列包含潜在目标的候选框,再进一步进行分类和边界框校正,发展出一系列其他算法,例如 Cascade R-CNN8
13、、Mask R-CNN9;另一类是单阶段(one-stage)检测,主流的单阶段目标检测模型有 YOLO10、RetinaNet11、SDD12算法,该类方法基于回归的思路,直接在特征图上预测目标位置和类别信息,大幅提高检测速度。目前利用深度学习的方法将海量的数据进行训练,实现高效率自主提取特征,在舰船检测上展现出强大的优势,但舰船检测仍然面临着以下挑战13-14:舰船目标在图像上往往背景复杂、方向排布随机,有效特征表征困难;舰船检测中目标尺度变化跨度大,模型对多尺度目标特征表达能力不足,使得模型很难实现精确检测;大量的舰船目标长宽比例大、周围背景干扰严重,导致有效定位舰船目标区域困难。针对以
14、上挑战,目前研究人员提出许多基于深度学习的方法。WU 等14通过添加可变形卷积通道注意力模块(Deformable Convolutional Channel Attention Block,DCCAB),增强检测器处理多尺度目标的能力;周旗开等15在特征提取阶段应用一种轻量、高效的通道注意力,以增加特征提取能力,减少复杂背景下漏检现象;文献 16-17 采用多种比例和角度的锚来覆盖不同的纵横比和方向,以应对尺度多变的目标。本文提出一种基于多尺度信息强化的旋转网络(RetinaNet-MPD)来提升舰船目标检测的精度。针对舰船目标尺度变化跨度大的问题,采用多尺度特征融合(Multi-scale
15、 Feature Fusion,MFF)模块实现高层语义信息和低层细节信息的充分融合,从而增强对多尺度特征图的特征表达。为获取目标中区别于背景环境的关键特征,设计一个良好的极化双重注 意 力 网 络(Polarized Dual Attention Network,PDANet),通过增强目标特征和抑制背景信息来提高算法在复杂场景中的鲁棒性。采用动态锚学习(Dynamic Anchor Learning,DAL)方法训练样本,帮助模型更好地选择高质量样本,提高舰船检测精度。最后,在 DOTA18舰船(DOTA-Ship)和 HRSC201619数据集上进行对比实验。1旋转 RetinaNet算
16、法 RetinaNet11作为主流的单阶段目标检测算法,使用 ResNet20和特征金字塔网络(Feature Pyramid Network,FPN)21作为骨干网络来提取特征,通过FPN 将高层特征和底层特征进行融合,增强网络对特征的学习能力,并构建一种新的损失函数,解决样本类别不平衡问题,使 RetinaNet算法在提升检测速度的同时,提高检测精度,大幅缩短与两阶段检测算法之间的差距。本文算法在 RetinaNet 算法的基础上进行改进。遥感图像中舰船目标通常面向任意方向,且在目标密集排列的情况下,采用矩形包围框来框住目标时,可能会包含多个实例和一些无用的背景信息,影响模型的检测效果。因
17、此,广泛采用的矩形包围框表示法并不适用于普遍存在方向多样性的舰船目标。为了实现对任意方向的舰船目标旋转不变性检测,本文在目标边界框参数中加入一个角度信息,得到可旋转检测的 RetinaNet算法,如图 1所示,旋转框和水平框都用绿色框表示(彩色效果见 计算机工程官网 HTML 版)。RetinaNet算法在旋转检测时解决了在水平检测中检测任意方向目标时的问题,减少了冗余检测区域。本文将目标边界框的 5个变量使用(x、y、w、h、)来表示,范围/2,0),被定义为与x轴的锐角,对于另一侧,本文将其表示为 w,其旋转边界框需要额外预测角度偏移量,定义如下:tx=(x-xa)/waty=(y-ya)
18、/ha(1)tw=loga(w/wa)th=loga(h/ha)t=-a(2)tx=(x-xa)/waty=(y-ya)/ha(3)tw=loga(w/wa)th=loga(h/ha)t=-a(4)其中:x、y、w、h、分别表示边界框的中心坐标(x 为 x轴,y为y轴)、宽度、高度和角度;变量x、xa、x分别代表真实目标边界框、锚、预测框(同样适用于y、w、h、)。图 1两种检测模式的差别Fig.1The difference between two detection modes258第 49卷 第 8期宋志娜,李莎,杨建明,等:基于特征与区域定位增强的遥感舰船目标检测2RetinaNet-
19、MPD舰船目标检测 2.1多尺度特征融合在以往目标检测工作中,融合不同尺度的特征是解决多尺度问题的重要手段之一。特征金字塔网络包括自底向上、自顶向下和横向连接结构,用于在所有尺度上构建丰富的语义信息,是目前大多数检测器为提高不同尺度目标检测效果所使用的一种特征融合方法,但此方法在融合过程中,卷积和多次下采样操作容易导致细节信息丢失,因而对小尺度目标的检测存在局限性。本文提出的 RetinaNet-MPD 网络结构如图2所示。通过设计一个多尺度特征融合(MFF)模块,更好地整合高层特征和低层特征,进一步增强模型对目标特征的表示能力。目前大多数融合方法是融合相邻的不同尺度特征图,而 Libra R
20、-CNN22引入平衡化特征金字塔,将各尺度特征图调整为等量的特征信息,获取平衡的语义信息,提高目标检测效果。借鉴 Libra R-CNN 这一思想,MFF 模块通过融合平衡的语义特征和加权融合的方式来增强目标原始特征。具体来说,使用双线性插值和池化操作将Pl中各尺度特征图都调整到 P5大小,然后通过简单的平均得到平衡的语义特征。该过程表达式如下所示:P=1LlminlmaxPl(5)其中:多尺度特征图数量表示为L;分辨率级别l的特征表示为Pl;涉及的最低和最高分辨率特征图索引表示为lmin和lmax。本文对 5 层特征进行加权融合,获得所有层加权融合后的特征值,融合方式如下:Nij=l=37e
21、xp()lijk=37exp()kij lij(6)其中:l表示当前特征层;k为遍历 P3P7层;lij为特征在空间位置(i,j)上的权重;lij为当前特征层的像素值。最后,本文将增强后的特征和原始特征相加,进一步加强特征,得到了多尺度特征层 A3,A4,A5,A6,A7,多尺度特征融合模块结构如图 3所示。2.2极化双重注意力网络遥感舰船目标检测中通常存在背景复杂的问题,目标特征难以从背景环境中区分开来,导致背景被错误地识别为目标。针对该问题,研究人员提出多种注意力机制,注意力机制从本质上讲类似于人类的选择性视觉注意力机制,其目的也是为了获取更多对任务至关重要的信息,忽视其他不相关信息,从而
22、提升模型对目标识别能力。本文提出极化双重注意力网络模块。具体来说,首先通过双重注意力网络(Dual Attention Network,DANet)23捕捉全局和通道的特征依赖,抑制不相关的信息,从而保留较强的语义信息;然后利用极化函数,为分类和回归构建各自所需关键特征。其中双重注意力网络的结构如图 4所示,它包含位置注意力(Positional Attention,PA)模块和通道注意力(Channel Attention,CA)模块,使用位置注意力模块来学习输入图像像素之间的相互依赖性,给定特征图 D(CHW),通过 3个卷积层分别得到 3个特征图 E、F、G,然后将 reshape后的
23、B 的转置与 reshape后的 F相乘,再通过 Softmax得到位置注意力图 S,最后通过式(7)得到输出P(CHW)。Pj=i=1N()sjiGi+Dj(7)图 2RetinaNet-MPD网络结构Fig.2Structure of RetinaNet-MPD network图 3多尺度特征融合模块Fig.3Multi-scale feature fusion module2592023年 8月 15日Computer Engineering 计算机工程其中:初始化为 0,并逐渐变大,表示分配更多权重;sji表示位置 i对位置 j的影响。两个位置的特征表示越相似,说明它们之间的相对依赖性
24、也更强。本文通过通道注意力模块来提取特征图中存在相互依赖的通道映射,分别对输入特征图A(CHW)做 reshape和 reshape与 transpose操作,然后将得到的两个特征图相乘,再通过Softmax得到通道注意力图X,最终,得到输出 E(CHW)。通过这两个注意力模块构建丰富的上下文依赖关系后,接下来将它们的输出相加以进一步增强特征。最后,通过极化函数获取目标特征中区别于背景信息的关键特征,该极化双重注意力网络的结构如图 5所示。对于分类任务,更需要关注局部高响应信息,使网络能同时捕捉多尺度信息,进行细粒度的识别,从而进一步保证高分辨率的特征被保留下来为分类任务提供依据,本文使用如下
25、极化函数来实现该激励功能:cls(x)=11+e-()x-0.5(8)其中:x 是注意力权重;是控制因子,用于控制特征激活强度。该极化函数使分类器更关注高响应、易于分类的区域,对注意力权重小于 0.5的干扰特征及难以分类的区域则较少关注。对于回归任务,本文更多关注全局信息,期望利用尽可能多的对象轮廓、上下文信息等线索来实现对象的定位,特征图上的高响应部分并不利于目标的定位,本文使用如下不同于分类任务的极化函数来实现该抑制功能:reg(x)=xx 0.51-x其他(9)该极化函数抑制特征中的高响应区域,使其更加关注对象的整体信息以实现对象的精确定位。2.3动态锚学习目标检测中基于锚的算法在训练时
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 特征 区域 定位 增强 遥感 舰船 目标 检测
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。