基于深度卷积神经网络的DOA估计.pdf
《基于深度卷积神经网络的DOA估计.pdf》由会员分享,可在线阅读,更多相关《基于深度卷积神经网络的DOA估计.pdf(7页珍藏版)》请在咨信网上搜索。
1、第2 4卷 第4期空 军 工 程 大 学 学 报V o l.2 4 N o.42 0 2 3年8月J OURNA L O F A I R F O R C E E NG I N E E R I NG UN I V E R S I T YA u g.2 0 2 3收稿日期:2 0 2 3-0 2-2 2基金项目:国家自然科学基金(6 2 0 7 1 4 7 6)作者简介:郭书涵(1 9 9 9-),女,河南安阳人,硕士生,研究方向为雷达信号与信息处理。E-m a i l:g u o s h u h a n 0 3 0 41 6 3.c o m通信作者:胡国平(1 9 6 4-),男,江西南昌人,教
2、授,博士生导师,研究方向为雷达信号与信息处理。E-m a i l:h g p 6 0 6 81 6 3.c o m引用格式:郭书涵,胡国平,赵方正,等.基于深度卷积神经网络的D OA估计J.空军工程大学学报,2 0 2 3,2 4(4):6 2-6 8.GUO S h u h a n,HU G u o p i n g,Z HAO F a n g z h e n g,e t a l.A D OA E s t i m a t i o n B a s e d o n D e e p C o n v o l u t i o n a l N e u r a l N e t w o r kJ.J o u
3、r n a l o f A i r F o r c e E n g i n e e r i n g U-n i v e r s i t y,2 0 2 3,2 4(4):6 2-6 8.基于深度卷积神经网络的D O A估计郭书涵1,2,胡国平1,*,赵方正1,2,周 豪1,张宇乐1,2(1.空军工程大学防空反导学院,西安,7 1 0 0 5 1;2.空军工程大学研究生院,西安,7 1 0 0 5 1)摘要 针对现有均匀线阵远场窄带非相干多目标估计算法对低信噪比、少快拍情况适应性差、运算复杂度高,以及现有深度学习方法难以有效提取数据复值特征的问题,提出基于深度卷积神经网络的波达方向估计方法。该方
4、法将波达方向估计问题转换为阵列输出协方差矩阵到目标到达角度的逆映射问题,利用阵列输出协方差矩阵的H e r m i t i a n特性,提取其上三角阵的实部、虚部及相位特征,构造网络的输入数据,搭建包含三维卷积层的深度卷积神经网络用来提取数据特征,网络的标签对应目标的到达角度,从而实现多个信源的波达方向估计。试验仿真表明:该方法可以充分提取空间特征,提高波达方向估计精度并降低算法复杂度。所提方法在低信噪比、少快拍数的情况下,其估计精度明显优于MU S I C、E S P R I T以及ML算法。关键词 波达方向估计;深度卷积神经网络;协方差矩阵;特征提取D O I 1 0.3 9 6 9/j.
5、i s s n.2 0 9 7-1 9 1 5.2 0 2 3.0 4.0 0 1 0中图分类号 T N 9 5 3 文献标志码 A 文章编号 2 0 9 7-1 9 1 5(2 0 2 3)0 4-0 0 6 2-0 7A D O A E s t i m a t i o n B a s e d o n D e e p C o n v o l u t i o n a l N e u r a l N e t w o r kGUO S h u h a n1,2,HU G u o p i n g1,*,Z HAO F a n g z h e n g1,2,Z HOU H a o1,Z HANG Y
6、u l e1,2(1.A i r a n d M i s s i l e D e f e n s e S c h o o l,A i r F o r c e E n g i n e e r i n g U n i v e r s i t y,X ia n 7 1 0 0 5 1,C h i n a;2.G r a d u a t e S c h o o l,A i r F o r c e E n g i n e e r i n g U n i v e r s i t y,X ia n 7 1 0 0 5 1,C h i n a)A b s t r a c t A i m e d a t t h
7、 e p r o b l e m s t h a t t h e e x i s t i n g U n i f o r m L i n e a r A r r a y(U L A)f a r-f i e l d n a r r o w b a n d n o n-c o h e r e n t m u l t i-t a r g e t e s t i m a t i o n a l g o r i t h m s i s p o o r i n a d a p t a b i l i t y t o l o w S i g n a l-t o-N o i s e R a t i o(S N
8、 R),s m a l l s n a p s h o t s i n a d a p t a b i l i t y,h i g h i n c o m p u t a t i o n a l c o m p l e x i t y,a n d e x i s t i n g D e e p L e a r n i n g(D L)a p-p r o a c h e s a r e d i f f i c u l t t o e f f e c t i v e l y e x t r a c t t h e c o m p l e x-v a l u e d f e a t u r e s
9、o f d a t a,a D i r e c t i o n o f A r r i v a l(D OA)e s t i m a t i o n m e t h o d b a s e d o n D e e p C o n v o l u t i o n N e u r a l N e t w o r k(D C NN)i s p r o p o s e d.T h i s m e t h-o d i s t o t r a n s f o r m t h e D OA e s t i m a t i o n p r o b l e m i n t o a n i n v e r s e
10、 m a p p i n g p r o b l e m f r o m t h e a r r a y o u t p u t c o-v a r i a n c e m a t r i x t o t h e t a r g e t D OA,a n d t o u t i l i z e t h e H e r m i t i a n c h a r a c t e r i s t i c o f t h e a r r a y o u t p u t c o v a r i-a n c e m a t r i x f o r e x t r a c t i n g t h e r e
11、a l p a r t,i m a g i n a r y p a r t,a n d p h a s e c h a r a c t e r i s t i c s o f a n u p p e r t r i a n g u l a r a r r a y,b u i l d i n g i n p u t d a t a o f a n e t w o r k,a n d b u i l d i n g a d e e p c o n v o l u t i o n a l n e u r a l n e t w o r k w i t h a t h r e e-d i-m e n
12、s i o n a l c o n v o l u t i o n l a y e r t o e x t r a c t d a t a f e a t u r e s,a n d t h e l a b e l s o f t h e n e t w o r k c o r r e s p o n d t o t h e D OA s,r e a l i z i n g t h e D OA e s t i m a t i o n o f m u l t i p l e s o u r c e s.T h e e x p e r i m e n t a l s i m u l a t i
13、o n s s h o w t h a t t h e m e t h o d c a n f u l l y e x t r a c t s p a t i a l f e a t u r e s,i m p r o v e D OA e s t i m a t i o n a c c u r a c y a n d r e d u c e t h e c o m p l e x i t y o f t h e a l g o r i t h m.U n d e r c o n d i t i o n o f l o w S N R a n d s m a l l s n a p s h o
14、 t s,t h e e s t i m a t i o n a c c u r a c y o f t h e p r o p o s e d m e t h o d i s s i g n i f i c a n t l y b e t t e r t h a n t h a t o f t h e MU S I C,t h e E S P R I T a n d t h e ML a l g o r i t h m s.K e y w o r d s d i r e c t i o n o f a r r i v a l e s t i m a t i o n;d e e p c o n
15、 v o l u t i o n a l n e u r a l n e t w o r k;c o v a r i a n c e m a t r i x;f e a t u r e e x t r a c t i o n 波达方向(d i r e c t o n o f a r r i v a l,D OA)估计是雷达信号处理中的重要研究内容,D OA估计的基本问题是确定空间内各个信号到达阵列参考阵元的方向角1-2。传统的D OA估计研究方法中的常规波束形成法3(c o n v e n t i o n a l b e a m f o r m i n g,C B F),将传统的傅里叶变换方法
16、应用于空间谱估计,但其角度分辨力受到“瑞利限”影响,由于天线阵列的孔径约束,无法分辨处于同一波束宽度内的多个不同目标。C a p o n提 出 基 于 最 小 均 方 准 则 的 最 小 方 差 法4(m i n i m u m v a r i a n c e m e t h o d,MVM),突破了常规波束形成方法中“瑞利限”的限制,空间分辨力得到提高,但估计精度有限,需要在信噪比较高、快拍数较多的条件下才能达到高精度估计。S c h m i d t5提出的多重信号分类方法(m u l t i p l e s i g n a l c l a s s i f i c a-t i o n,MU
17、S I C)以及R o y和K a i l a t h6提出的旋转不变子空间参数估计法(e s t i m a t i o n o f s i g n a l p a r a m e-t e r s v i a r o t a t i o n a l i n v a r i a n c e t e c h n i q u e s,E S P R I T)是子空间分类法的重要代表。MU S I C方法利用信号子空间和噪声子空间的正交性对接收信号的协方差矩阵进行分解,划分空间进行估计,显著增强了空间谱估计的超分辨能力,大大提高了空间谱估计的精度。E S P R I T方法利用子空间的旋转不变特性得
18、到子阵接收信号的相位差来估计信号角度,其计算复杂度明显低于MU S I C算法,但估计精度较低。上述2种子空间分类在信噪比低、快拍数少、信源相干、模型失配等非理想情况下,协方差矩阵分解得到的信号子空间和噪声子空间都不够准确,使得测向性能显著下降,且矩阵分解计算量巨大。Z i s k i n d和W a x7提 出 的 最 大 似 然(m a x i m u m l i k e l i h o o d,ML)估计法是子空间拟合方法的代表算法之一。这类算法较子空间分类方法,在信噪比低、快拍数少的条件下测向性能稳定,且能够对相干信源进行估计。但此类方法属于多维非线性优化问题,算法复杂度较高。传统的D
19、 OA估计方法总体上是基于模型驱动的,在理想条件下估计精度可以逼近克拉美罗界,然而在存在阵元耦合、幅相误差、阵元位置误差等非理想模型失配的情况时,D OA估计性能显著下降。随着深度学习理论与方法的不断发展,基于深度学习的D OA估计方法也随之发展,并成为D OA估计新的研究方向。深度学习类D OA估计方法基于数据驱动,通过网络模型直接建立阵列接收数据与波达角度之间的映射关系,能够有效解决上述问题,同时其低信噪比、少快拍情况的适应能力、超分辨能力得到了增强,计算复杂度也有所降低。目前,基于深度学习的D OA估计方法大致分为两类。一类是将D OA估计问题转化为神经网络分类问题,将空间角度进行分类,
20、学习网络输入数据与D OA之间的映射关系。例如L i u等人8提出一个两级框架,分别采用多任务自编码器对参数空间进行粗划分以及并行多层分类器进一步划分子区域,该框架以阵列接收数据协方差的实虚部作为输入,然后提取特征,实现阵列误差情况下的高精度测向。葛晓凯等人9基于信号在空域内是稀疏的先验条件,提出一种深度学习网络,将卷积网络和全连接网络相结合,输出为D OA的最大后验概率,实现相干源D OA的近最大似然估计。吴双等人1 0为解决大规模分类问题,将原始标签分解为多个互质类别并分别建立分类器,通过离线训练学习从阵列采样到参数空间的逆映射,最后将小分类器的输出重构为原始o n e-h o t标签。另
21、一类是将D OA估计问题转化为神经网 络 回 归 问 题。例 如Wu等 人1 1将D OA估计作为压缩感知中稀疏线性逆问题,提出了一种从大型训练数据集学习逆变换的深度卷积网络,利用稀疏先验实时、有效地获得信号的D OA。针对现有研究中,基于深度学习的D OA估计大多只考 虑 单 个 或2个 目 标,基 于 此,E l b i r1 2提 出D e e p MU S I C深度学习框架,设计了多个深度卷积神经网络,划分子区域学习阵列接收数据的实虚部特征与其MU S I C空间谱特征的关系以实现多个目标的D OA估计。本文针对均匀线阵远场窄带非相干多目标估计问题,将D OA估计问题转化为神经网络分
22、类问题,将阵列接收协方差矩阵上三角阵的实部、虚部及相位作为网络输入,有效降低了算法的时间复杂度及空间复杂度,搭建了深度卷积神经网络,提取数据特征,并学习数据输入与标签之间的非线性映射关系,从而实现在低信噪比、少快拍情况下的高精度D OA估计。36第4期 郭书涵,等:基于深度卷积神经网络的D OA估计1 信号模型与数据集构建1.1 均匀线阵模型基于传统算法的D OA估计问题,大多通过建立模型给出阵列输出信号矢量及阵列导向矩阵从而得到信源的入射角度k1 3。假设K个远场窄带非相干目标信号源S(t)=s1(t),s2(t),sK(t)T以来波方向=1,2,KT入射至阵元间距为d方向性任意的M阵元均匀
23、线阵。阵列输出信号矢量X(t)=x1(t),x2(t),xM(t)T可表示为:X(t)=Kk=1a(k)sk(t)+N(t)=A()S(t)+N(t)(1)式中:N(t)=n1(t),n2(t),nM(t)T表示均值为0,方差为2的高斯白噪声;a(k)为阵列入射角为k的入射信号的导向矢量;A()为阵列的导向矩阵。a(k)=1,e-j 2 ds i nk,e-j 2(M-1)ds i nkT(2)A()=a(1),a(2),a(K)(3)式中:为信号波长;d为阵元间距。阵列输出X(t)的协方差矩阵为:Rx x=EX(t)XH(t)=A()RsAH()+2I(4)式中:E 表示数学期望;I为单位矩
24、阵。通常来说,空间信源个数要小于阵元数且空间谱具有空间稀疏性。将空域范围-6 0,6 0 划分为N个 间 距 为的 离 散 角 度 的 集 合=1,2,NT,当空间中某个离散角度集合中有信号到达时,其对应位置序号rn=1,否则rn=0。则 离 散 角 度 对 应 位 置 序 号 集 合r=r1,r2,rNT。每个离散角度对应的导向矩阵、信号源、阵列输出可以重新表示为:A()=a(1),a(2),a(N)(5)S(t)=s1(t),s2(t),sN(t)T(6)X(t)=ArTS(t)+N(t)(7)将D OA估计问题转化为阵列输出信号的协方差矩阵到离散集合中对应非零元素位置序号的映射问题。本文
25、采用卷积网络解决D OA估计问题。将阵列输出X(t)协方差矩阵Rx x上三角阵的实部虚部及相位作为卷积神经网络的输入:Rx x=EX(t)XH(t)(8)由于协方差矩阵是正定H e r m i t i a n方阵,因此在训练阶段,可将协方差矩阵Rx x的上三角阵代替方阵进行特征提取,可以有效降低输入数据规模及运算量1 4。将离散角度序号集合r作为网络的输出。测试阶段,输出的离散角度序号集合r的K个最大非零元素位置所对应的离散角度,即待估计信号到达方向的角度值。1.2 数据集的构建本文以信号协方差矩阵的实部、虚部及相位特征构建数据集作为深度学习网络的输入,目标入射范围为-6 0,6 0 ,变化间
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 深度 卷积 神经网络 DOA 估计
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。