基于自注意力机制的雷达弱目标检测.pdf
《基于自注意力机制的雷达弱目标检测.pdf》由会员分享,可在线阅读,更多相关《基于自注意力机制的雷达弱目标检测.pdf(10页珍藏版)》请在咨信网上搜索。
1、第4期2023年8月Vol.21 No.4August 2023雷达科学与技术Radar Science and TechnologyDOI:10.3969/j.issn.16722337.2023.04.010基于自注意力机制的雷达弱目标检测齐美彬1,李亚斌1,项厚宏1,杨艳芳1,张学森2(1.合肥工业大学计算机与信息工程学院,安徽合肥 230009;2.中国电子科技集团公司第三十八研究所,安徽合肥 230088)摘要:对于低信噪比下的弱小目标检测,传统的检测算法采用恒虚警(CFAR)的方式定位目标的位置,但其难以设置合适的阈值,无法很好地应对该类目标的检测。针对上述问题,本文提出VUNet
2、检测方法。该方法首先对雷达回波数据进行处理,得到目标回波的距离多普勒(RD)矩阵。然后将RD矩阵输入到所提出的网络框架,通过UNet实现雷达信号的编码与解码,获取RD矩阵中具有辨别性的深度语义特征,实现逐单元的目标位置预测。同时,该网络中引入自注意力模块实现对雷达信号的关系建模,从而提取更加丰富的目标回波特征,提升网络的抗噪性能。实验结果表明,所提方法的检测性能在低信噪比场景下具有较强的鲁棒性,能够实现对弱目标的有效检测。关键词:弱目标检测;深度学习;自注意力机制;深度语义特征中图分类号:TN971文献标志码:A文章编号:16722337(2023)04043109Weak Radar Tar
3、get Detection Based on SelfAttention MechanismQI Meibin1,LI Yabin1,XIANG Houhong1,YANG Yanfang1,ZHANG Xuesen2(1.School of Computer and Information Engineering,Hefei University of Technology,Hefei 230009,China;2.The 38th Research Institute of China Electronics Technology Group Corporation,Hefei 23008
4、8,China)Abstract:For dim target detection under low signaltonoise ratio,the traditional detection algorithm uses constant false alarm rate(CFAR)to locate the target,but it is difficult to set an appropriate threshold,which cannot welldeal with the detection of this kind of targets.Aiming at the abov
5、e problems,this paper proposes VUNET detectionmethod.Firstly,the radar echo data is processed to obtain the rangeDoppler(RD)matrix of the target echo.Then theRD matrix is input to the proposed network framework,and the radar signal is encoded and decoded by UNet to obtainthe discriminative deep sema
6、ntic features in the RD matrix,while the target position prediction is realized unit by unit.At the same time,the selfattention module is introduced into the network to achieve the relationship modeling of radarsignals,so as to extract richer target echo features and improve the antinoise performanc
7、e of the network.Experimentalresults show that the detection performance of the proposed method is robust in low SNR scenarios,and it can effectivelydetect weak targets.Key words:weak target detection;deep learning;selfattention mechanism;deep semantic feature0引言近年来,小型无人机等一系列低空慢速的小目标的研发实现了较快的发展,其数量也
8、日益增多。为了更好地防止低空事故的发生,如何检测到这些弱目标,成为了近年来雷达领域的热点之一。但是在雷达目标检测中,弱目标因其散射截面积(Radar Cross Section,RCS)小,信噪比(Signalto Noise Ratio,SNR)低,给检测任务带来了巨大的挑战。传统雷达弱目标的检测大多采用恒虚警方法(Constant False Alarm Rate,CFAR)12实现目标的定位。但是,由于其回波能量小于周围杂波与噪声,引发大量虚警、漏警现象。该方法的性能过分地依赖于门限值的设定,对目标检测结果造成一定的干扰。由于卷积神经网络(Convolutional Neural Net
9、work,CNN)34具备良好的特征提取能力,其已经成功在计算机视觉、自然语言处理等多个领域取得了良好的性能。受到基于深度学习的视觉目标收稿日期:20221029;修回日期:20221207雷达科学与技术第 21 卷 第 4 期检测成果58的启发,在卷积神经网络应用于雷达目标检测方面,本文进行了初步探索。文献 9 设计了一种基于CNN的检测器实现雷达目标的检测。与传统CFAR检测器不同,该方法通过使用窗口函数在距离多普勒(RangeDoppler,RD)图上滑动,根据网络学习到的窗口内的雷达信号特征,来判断滑窗内的 RD 图是否包含目标。该检测器采用两个卷积层和两个池化层去提取雷达信号特征。R
10、adCNN10在文献 9 的基础上,加深了网络的卷积层至四层,并采用动量随机梯度下降法对网络进行训练。但是该类算法没有考虑RD图中区域之间的相关性,无法应对低信噪比情况下的小目标的检测。同时,由于滑窗大小是固定的,此类方法容易发生小目标的漏检情况,目标的定位精度有待提高。针对上述问题,本文采用UNet网络1112,通过对RD图中的雷达信号进行编码和解码操作,从而实现逐单元的目标检测。此外,本文在网络中引入了自注意力模块1314,因其RD矩阵中目标点特殊的幅度信息和相位信息,网络根据数据驱动的方式建模输入信号中任意两个信号间的关系,来获取RD矩阵中具有辨别性的深度语义特征从而提高网络的全局关系建
11、模能力。该网络可以进行端到端的检测训练,且可以对任意尺寸的雷达回波数据进行编码,再将其解码恢复数据原来尺寸大小,因此可以灵活地应用于多种雷达信号检测场景中。具体来说,本文根据信号预处理模块得到的距离多普勒(RD)复数矩阵,扩展为实部、虚部、模值三个通道矩阵,并将其输入到深度学习网络框架中训练。对每个距离和速度单元都产生了一个预测,同时加入自注意力模块建模多个映射空间的雷达信号自注意力关系来获取更加丰富的特征信息,从而精确的定位目标点所在的距离单元和多普勒信息。此外,本文进行了广泛的实验证明了所提出方法的有效性。实验的可视化效果证明了本文的方法是优于传统CFAR检测的方法,检测性能在低信噪比场景
12、下具有较强的鲁棒性,能够实现对弱目标的有效检测。1雷达信号检测框架本文采用的方法总体分为3个模块:预处理模块、检测模块、结果模块,如图1所示。LD64M)4C.7+U-Net44)图1信号检测框架预处理模块:对于雷达信号本文采用线性调频(LFM)发射信号。在持续时间内,LFM信号的实部和虚部都为时间的振荡函数,信号频率随时间呈线性规律,其示意图如图2所示。根据RD矩阵中目标点的幅度信息和相位信息,网络根据数据驱动的方式建模输入信号中任意两个信号间的关系,来获取RD矩阵中具有辨别性的深度语义特征,从而提高网络的全局关系建模能力。1.00.50-0.5-1.0-0.010-0.00500.0050
13、.010K/ms(a)线性调频波实部1.00.50-0.5-1.0-0.010-0.00500.0050.010K/ms(b)线性调频波虚部432齐美彬:基于自注意力机制的雷达弱目标检测2023 年第 4 期-0.010-2-1012-0.00500.0050.010K/ms3AMM(/MHz(c)线性调频波频率图2线性调频波信号因此雷达回波数据的预处理通过脉冲压缩、多普勒处理之后,形成的雷达数据是一个距离多普勒二维矩阵X。矩阵中每个像素都以复数i+jQ形式表示,包含实部和虚部。矩阵X的行代表距离信息,X的列代表速度信息。为了便于深度网络的处理,本文将单通道的矩阵X整合成三通道矩阵X。3个通道
14、分别由矩阵X的实数、虚数和绝对值构成。绝对值通道用于更好地让网络获取数据中的幅度信息,实数和虚数通道则是让网络来获取数据中的相位信息。检测模块:由于自注意力机制模块可以获取输入信号中任意两个信号间的关系,不需要任何先验信息,是一种数据驱动的网络。因此,其可以由任务自身驱动,自动学习雷达信号间的关系,获得雷达的全局信息和长时依赖。而 UNet作为卷积神经网络,包含编码和解码模块,其通过局部先验获取雷达信号的局部关系,但其在长期依赖的建模能力尚且不足。综上,两个网络的结合可以形成功能性的互补。因此为了提高雷达信号的特征的辨别性,本文在 UNet 网络中加入自注意力模块,构建出基于自注意力机制的UN
15、et网络,利用自注意力机制模块提高 UNet 网络的全局关系建模能力,从而改善特征的辨别性来提高网络检测的鲁棒性。网络通过大量数据训练来提取目标的特征信息,从而获取目标所在位置来代替 CFAR 检测。网络的具体实现过程见本文第2节。结果模块:多普勒处理后的RD矩阵经过检测模块后,得到仅含目标的距离多普勒图。2检测网络为了逐像素预测RD图中是否包含目标,本文采用了具有编码和解码结构的U型网络作为雷达检测网络的主体框架。在此主体网络的基础之上,本文引入了自注意力模块建模雷达信号间的关系。其中,UNet主体框架的实现过程在2.1节中详细介绍,自注意力模块的网络结构在2.2节中详细介绍。2.1基于UN
16、et的雷达目标检测网络UNet网络广泛应用于计算机视觉中图像语义分割等领域,并获得了良好的效果。具体来说,采用UNet网络作为雷达目标检测网络的主要原因如下:1)UNet 网络主要由编码和解码部分构成,编码结构可以使用任意的网络结构,解码结构使整体网络更加完善,能够提高网络对目标特征的拟合程度;2)该网络可采用端到端的方式,对雷达数据进行逐单元预测,输入与输出的尺寸相同,因此可以灵活地应用于多种雷达信号检测场景中;3)与全卷积网络(FCN)15相比,该网络有更长距离的残差连接,其可以保留雷达回波数据的多尺度原始数据信息,从而应对弱目标的尺寸变化,同时其能够有效地防止网络的梯度消失。UNet网络
17、主要包含两个部分:编码器和解码器。1)编码器,用于对数据进行特征提取。具体来说,编码器中包含4个下采样模块,每个模块包含 1个最大池化层,2个卷积层,其卷积核为33、步长为1、填充为1,从而得到不同尺度的特征信息j,j2,3,4,5。每个模块都进行卷积层提取特征,并使用最大池化层进行下采样。4个模块输出4个尺度的特征 j,从而更好的应对目标的尺度变化。2)解码器,用于获取与输入数据尺寸相同的输出。解码部分包含了4个上采样模块,融合特征信息i,i6,7,8,9。具体来说是对特征信息5进行上采样模块处理。其利用线性插值法对每一层数据进行原尺寸的两倍填充,得到上采样特征信息6。同时对该上采样特征信息
18、6和其对应层下采样的特征信息4进行残差连接,之后经过一个11卷积层将通道数缩小至一半,恢复到和特征信息4一样的433雷达科学与技术第 21 卷 第 4 期通道数,从而更好地保留原始雷达多尺度数据信息。相似地,经过4次上采样操作,得到特征融合特征信息9,最终输出与输入相同尺度的目标位置预测得分图输出。图中每个值被视为输入RD图中对应位置是否包含目标的概率,因此该输出可用于预测RD图每个位置是否包含目标。这使得UNet 在雷达目标检测过程中,效果优于普通CFAR检测以及基于滑窗的深度检测器。UNet网络框架如图3所示。D123456789FD4321F图3UNet网络框架2.2自注意力模块为了建模
19、多个映射空间的雷达信号自注意力关系,本文采用了多头并行自注意力模块。其中,并行的多个自注意力单元用于在不同的映射空间建模雷达信号的自注意力关系。最后,自注意力模块整合多头注意力单元的结果,从而获取更加丰富的自注意力关系。具体来说,每个注意力单元先采用点积的形式,计算Q和K的注意力。由于Q和K来自相同的输入,因此该注意力记为自注意力。该自注意力机制的优点在于,网络对信息长期依赖关系有着更强的捕捉能力。而对于单个注意力单元其结果如图4所示,将输入 X 送进 3 个卷积层,得到 Q、K、V 三个向量。用Q中每一个向量与K中每一个向量计算点积,即score=Q KT。score中包含Q中每个元素和K中
20、每个元素之间的注意力。将score与V进行点积,即对Q中每个元素,根据其与V中所有元素的注意力值对V中所有元素进行累加得到Z。VZscoreQKXXX%/%/%/%/图4单个注意力单元最终,自注意力模块将h个并行的注意力单元所获得的结果进行了拼接,得到了网络的最终输出。其网络框架如图5所示。自注意力模块主要包括多头通道注意16、正则化(Layer Normalization,LN)和多层感知器(Multilayer Perceptron,MLP17)。434齐美彬:基于自注意力机制的雷达弱目标检测2023 年第 4 期Q1KVQ2Q3hQ4-3 EE 图5自注意力模块加入自注意力模块的雷达信号
21、检测网络VUNet 如图 6 所示。VUNet 网络在 UNet 网络基础上,将特征信息输入到自注意力模块中,得到输出特征信息i,i6,7,8,9,再将其与对应的上采样数据进行拼接。其可以在多个尺度建模雷达信号的自注意力信息,捕捉更加丰富的雷达信号关系,从而提升雷达信号特征的辨别性,进而提升雷达信号检测的精度。3实验3.1数据集构建本文生成的测试 UNet 网络和传统 CFAR 检测所需要的雷达回波数据,由线性调频波(LFM)脉冲调制,其载波工作在3 GHz载波上,脉冲宽度为50s,调频带宽为10 MHz,同时添加高斯白噪声。D1234567897777FD4321F图6VUNet网络框架为了
22、更好地证实VUNet网络的优越性,本文数据产生与RadCNN网络实验同等量级的数据量,训练4 000组带有目标的距离多普勒矩阵,根据目标设定的距离和速度信息找到其所在的矩阵中位置,将其设置为标签1,其余没有目标的点设置为标签0。将数据送到网络里训练。对于测试集本文产生 2 000组带有目标的距离多普勒矩阵,对于标签设置方法和训练集设置方法一致。验证集则是在信噪比为7背景下仿真2 000 组带有目标的距离多普勒矩阵,用来消融实验。同时对测试集的数据进行CFAR检测。为验证UNet网络的优越性,本文设置10组不同信噪比的噪声背景,将CFAR检测后的结果,与UNet网络和VUNet网络的检测结果进行
23、对比。3.2评估指标针对如何判定雷达目标预测的准度,本文用两个评估指标,分别是Precious(P)精确度:反映系统正确判定 1 的样本中真正的 1 的样本的比重;Recall(R)召回率:反映系统正确判定为1的样本占总的1的样本的比重。两个评估指标的计算公435雷达科学与技术第 21 卷 第 4 期式如下:P=TPTP+FP(1)R=TPTP+FN(2)式中,True Positive(TP)、False Negative(FN)作为评估标准。其中True Positive(TP)为类别为1的样本被系统正确判定为类别 1 的比例;False Negative(FN)为类别为1的样本被系统误判
24、定为类别0的比例;False Positive(FP)表示类别为0的样本被系统误判定为类别1的比例。3.3损失函数本文采用的是Dice损失函数1819。Dice用于计算两个样本的相似度。其计算公式为Dice=2|Y Z|Y|+|Z|(3)Dice损失的计算公式如下:Loss=1-Dice(4)当Y为预测数据,Z为真实标签时,最小化损失函数可以驱动网络去增加Y与Z的Dice值,从而增加Y与Z交集,使得预测数据更加接近于真实标签。3.4参数验证因为多头在多个映射空间建模雷达信号间的深度关系,所以多头数h在本文提出的方法中是个至关重要的参数,通过在验证集上的实验确定了参数h的数值,实验结果如图7所示
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 注意力 机制 雷达 目标 检测
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。