联合自适应邻域和Bagging的协同表示集成学习方法.pdf
《联合自适应邻域和Bagging的协同表示集成学习方法.pdf》由会员分享,可在线阅读,更多相关《联合自适应邻域和Bagging的协同表示集成学习方法.pdf(7页珍藏版)》请在咨信网上搜索。
1、第 卷 第期 年月遥 感 信 息 ,收稿日期:修订日期:基金项目:江苏省自然资源科技项目()。作者简介:虞瑶(),女,硕士研究生,主要研究方向为 、摄影测量与遥感。犈 犿 犪 犻 犾:联合自适应邻域和犅 犪 犵 犵 犻 狀 犵的协同表示集成学习方法虞瑶,范雪婷,丁婷(江苏省基础地理信息中心,南京 )摘要:近年来,协同表示分类(,)算法成为高光谱遥感影像分类的研究热点,其中基于 的协同表示集成学习算法(,)利用 集成方式有效地提高了基分类器协同表示分类算法的精度。为进一步提升 算法的有效性,文章提出了一种联合自适应形状邻域和 协同表示集成学习算法(,)。该算法通过构建训练样本和测试样本的自适应形
2、状邻域,进而构建空间信息约束的分类器集成模式。实验采用 和 两组高光谱遥感影像,对所提出算法的性能进行了评价。实验结果表明,算法在分类效果上比 算法有明显的提升。关键词:自适应形状邻域;协同表示;集成学习;高光谱影像分类犱 狅 犻:中图分类号:文献标志码:文章编号:()犆 狅 犾 犾 犪 犫 狅 狉 犪 狋 犻 狏 犲犚 犲 狆 狉 犲 狊 犲 狀 狋 犪 狋 犻 狅 狀犈 狀 狊 犲 犿 犫 犾 犲犔 犲 犪 狉 狀 犻 狀 犵犕 犲 狋 犺 狅 犱犆 狅 犿 犫 犻 狀 犻 狀 犵犃 犱 犪 狆 狋 犻 狏 犲 狊 犺 犪 狆 犲犖 犲 犻 犵 犺 犫 狅 狉 犺 狅 狅 犱犪 狀 犱犅
3、犪 犵 犵 犻 狀 犵 ,(犅 犪 狊 犻 犮犌 犲 狅 犵 狉 犪 狆 犺 犻 犮犐 狀 犳 狅 狉 犿 犪 狋 犻 狅 狀犆 犲 狀 狋 犲 狉狅 犳犑 犻 犪 狀 犵 狊 狌犘 狉 狅 狏 犻 狀 犮 犲,犖 犪 狀 犼 犻 狀 犵 ,犆 犺 犻 狀 犪)犃 犫 狊 狋 狉 犪 犮 狋:,(),(),()犓 犲 狔 狑 狅 狉 犱 狊:;引言随着高光谱成像卫星的兴起,目前我国已发射高分五号、珠海一号和环境一号等高光谱卫星。高光谱遥感技术利用高光谱传感器,以连续细分的电磁波波段对目标区域进行成像,得到含有空谱信息的高光谱图像 。现在,针对高光谱图像的处理方法包括影像分类、混合像元分解和异常
4、探测等,其中影像分类是热门方向之一 。协同表示分类认为测试样本可由犔范数最小化的训练样本的线性组合来协同表示。考虑到不同训练样本的重要性,等提出了基于距离权 正 则 化 约 束 的 协 同 表 示 算 法(,),在分类稳定性上取得了较好效果。为有效地挖掘空间信息,等进一步提出了联合类内信息协同表示方法(,)。但该类利用窗口形式的空间信息存在异质性问题,针对该问题,遥 感 信 息 年期 等采用构建联合信号的方式选取邻域样本,提出非局部 联合协 同 表示 分类 算 法(,),对高光谱数据进行分类。除了发展更为先进的协同表示分类算法 ,利用集成学习提升协同表示分类器的分类表现也是一种有 效 的 方
5、式。等 将 多 重 协 同 表 示 与 思想相结合的算法已经取得了良好的识别性能。等 结合 的集成方式和协同表示分类,提出基于 的协同表示集成分类算法,有效地提高了基分类器协同表示分类器的分类精度。但是,上述集成算法均未充分利用高光谱遥感影像丰富的空间信息。基于此,本文利用自适应形状邻域构建空间信息约束,结合 的协同表示集成分类算法,提出一种联合自适应形状邻域和 协同表示集成学习算法(,)。该 算法通过构建训练样本和测试样本的自适应邻域的方式联 合 空 间 信 息,探 讨 联 合 自 适 应 形 状 邻 域 和 集成学习方式对高光谱遥感影像分类效果的影响,并且使用 和 ()两个不同传感器的高光
6、谱遥感影像数据进行实验验证。实验证明自适应空间邻域的约束集成模型是一种有效的方式。相关算法 自适应形状邻域利用高光谱遥感影像的第一主成分构建每个像素的形状自适应(,)局部邻域。一般采 用 主 成 分 分 析(,)提取高光谱遥感影像的第一主成分。如图所示,邻域为多边形,个多边形顶点的位置可确定其形状和大小。个方向犻是已知的,分别是 ,。而从中心像素到顶点的个长度犺犽(犽,)需要设置。犺犽设置的取值范围为,。邻域构建主要包含两个步骤。首先,基于高光谱遥感的第一主成分采用局部多项式(,)滤波核函数 犵犺犽,犻对其进行卷积操作,获取影像在各方向和射线长度上的平滑密度估计和误差。得到平滑密度估计和误差后
7、,计算置信区间。最佳射线长度的选取利用交叉置信区间规则(,)。最后连接条射线的端点来确定每个中心像素的 区域,如图所示。图犛 犃构建的自适应邻域示意图 方法能够根据地物空间形态结构自适应地构建局部邻域,且对规则结构和不规则多边形结构均具有较强的适应性,并能够准确地反映地物边缘和细节特征。基于犫 犪 犵 犵 犻 狀 犵的协同表示集成学习算法测试样本狔首先利用全部的训练样本作为字典犇求解表示系数向量,然后利用各类别训练样本子集和所对应的表示系数恢复重建,从而得到各类别训练子集对测试样本狔的表示估计值,再计算各表示估计值与真实测试样本之间的重构残差,最终根据最小残差准则判定测试样本狔的地物类别。协
8、同 表 示 分 类 模 型 需 要 同 时 满 足 误 差 项狔犇 最小和约束条件项最小,因此协同表示分类模型的目标函数描述如式()所示。(狔犇)()式中:为正则化参数。可以求得协同表示的表示系数的闭式解,计算如式()所示。(犇犇 犐)(犇狔)()式中:犇是犇的转置;犐为单位矩阵。如测试样本狔来自于第犿类,表示系数向量为犿,由第犿类样本重建的表示值犇犿犿与真实测试样本值狔之间残差狉犿最小,判定准则如式()所示。(狔)犿,犓狉犿(狔)犿,犓(狔犇犿犿犿)()式中:犓表示类别数。总而言之,协同表示分类模型中表示系数采用犔范数最小化约束,致使全部的训练样本协同性地参与测试样本的表示。但协同表示算法对
9、参数较为敏感。集成方式要求基分类器必须是不稳定的,也就是说分类器对样本或者参数越敏感,集成效果表现越好。该算法选用 作为基分类器,通过随机采样方式从原始训练集生成新的样本集合。犜代表基分类器的数目。基于新训练样本集犡狋构造有引用格式:虞瑶,范雪婷,丁婷联合自适应邻域和 的协同表示集成学习方法遥感信息,():差异性的字典犇狋犇狋,犇狋,犇狋,犇犓 狋。由于构造的字典不同,导致每个训练集中获取的表示系数不同。这表明在每一个基分类器模型中,测试样本的最佳表示估计可能来源于不同的类别,也就意味着每个基模型对测试样本的预测标签可能不同。最后采用多数投票法综合决策分类结果。基于 的协同 表 示 集 成 学
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 联合 自适应 邻域 Bagging 协同 表示 集成 学习方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。