基于深度学习的高分遥感影像建筑物提取研究.pdf
《基于深度学习的高分遥感影像建筑物提取研究.pdf》由会员分享,可在线阅读,更多相关《基于深度学习的高分遥感影像建筑物提取研究.pdf(5页珍藏版)》请在咨信网上搜索。
1、收稿日期:2023-01-16作者简介:王锦洋(1965-),福建永定人,本科,高级工程师,研究方向:测绘工程。53第22卷第2期石家庄铁路职业技术学院学报VOL.22 No.22023 年 6 月JOURNAL OF SHIJIAZHUANG INSTITUTE OF RAILWAYTECHNOLOGYJun.2023基于深度学习的高分遥感影像建筑物提取研究基于深度学习的高分遥感影像建筑物提取研究王锦洋1,2)(福建省经纬数字科技有限公司1)福建福州350001;武汉大学-福建招标集团通导遥集成应用工程研究中心2)湖北武汉430072)摘要摘要:传统的建筑物提取方法普遍存在过分依赖人工设计、
2、自动化程度低、泛化能力弱等问题。随着深度学习算法在高分辨率卫星图像分类领域的应用,本文基于深度学习方法,以福建南安地区为研究区,以国产高分遥感影像为数据源,选取 4块典型区域制作建筑物数据集,搭建 U-Net 和 MaskR-CNN 深度学习模型在自建的南安数据集上训练,从定量和定性的角度对比两种模型对建筑物提取的效果,最终选定精度更高的 U-Net 方法作为最终的提取算法;再对数据集中正负样本的比例进行调整,进一步提高了模型分割的精度,实现了基于深度学习方法的南安地区建筑物的识别和提取。关键词:关键词:建筑物提取;深度学习;高分辨率遥感影像;U-Net;Mask R-CNN中图分类号中图分类
3、号:TP751文献标识码文献标识码:A文章编号文章编号:1673-1816(2023)02-0053-05随着通信信息、传感器技术等的快速发展,我国在高分辨率卫星遥感影像数据获取上日益呈现出多源、多类型、高时效、高精度的发展趋势,为土地利用变化监测、城市规划、灾害监测预警等多个领域提供了更便捷、更精确的数据来源。其中,建筑物作为城市重要地理要素之一,它的位置和空间格局等信息在数字城市、智慧城市建设及基础地理数据库更新等方面具有重要意义。近年来,深度学习的快速发展为高精度自动化的提取建筑物提供了新的方法,U-Net1、SegNet2、DeepLab3、Mask R-CNN4等都是非常经典的语义分
4、割算法。其中,U-Net 和 Mask R-CNN 在当前建筑物提取较为广泛,如张浩然5基于全连接 CRFs 模型对 U-Net 模型进行优化,对建筑物的分割精度达到了 87.64%;吕道双6将空洞卷积加入 U-Net 网络中,从影像中准确地提取出了建筑物。MaskR-CNN 是何恺明基于以往的 Faster R-CNN 架构提出的集成目标检测、目标分类、语义分割等多种任务的卷积网络模型。何维龙7将 ResNet101 网络与 Mask R-CNN 算法相结合提升了建筑物的检测精度。胡舒8基于 Mask R-CNN 算法实现了高分辨遥感影像建筑物目标检测。本文基于高分影像构建数据集,采用 U-
5、Net 和 Mask R-CNN 两种模型对建筑物进行自动提取,并探讨数据集中正负样本的比例对建筑物提取精度的影响。1南安地区建筑物数据集构建南安地区建筑物数据集构建1.1数据源介绍数据为 2020 年 3 月福建省南安市的国产高分辨率遥感影像,影像分辨率 0.5 m,影像坐标系CGCS2000_3_Degree_GK_Zone_39,图幅像素尺寸92 672167 936,整幅影像占地面积约2 036 km2。1.2建筑物数据集预处理石家庄铁路职业技术学院学报2023 年第 2 期54建筑物数据集制作包括格式转换、图像裁切、人工数据标注 3 个步骤。将 TIF 格式的原始影像转换为深度学习网
6、络模型常用的 PNG 格式。采用规则格网裁剪的裁剪方式对影像图进行裁剪。采用 labelme 工具来标注建筑物并存成 json 格式,然后将 json 文件转换为图片标签。1.3扩充训练数据集对上述得到的训练集和标签图进行几何变换,达到增加训练样本和增强算法鲁棒性的目的。经人工数据标注和数据增强操作后,最终构建的南安地区建筑物数据集共计 24 291张 RGB 影像,包括 19 674张训练集图片,4 617张验证集图片。2建筑物提取算法模型介绍建筑物提取算法模型介绍2.1U-Net 算法实现U-Net 结构如图 1 所示,U-Net 模型由压缩路径、扩展路径和预测 3 部分组成。压缩路径是典
7、型的卷积神经网络架构,每次卷积步骤均由卷积核和线性整流函数组成,然后进行最大池化步骤完成一次下采样9。扩展部分将获取到的有效特征层进行特征融合并获得一个融合所有特征的有效特征层。预测部分利用最终获得的有效特征层对每个特征点分类,相当于对每个像素点进行分类。图 1U-Net 神经网络总体结构2.2Mask R-CNN 模型结构Mask R-CNN 借用了 Faster-RCNN 的框架,首先选择可能存在目标物体的候选框,然后再对包含目标的候选框分割,此时就相当于对每个 ROI 都进行了一次分割操作。图 2 展示了 Mask R-CNN模型的结构,Mask R-CNN在Faster R-CNN的基
8、础上主要进行了两个改动,一是添加了辅助分支mask用于实现语义分割功能,二是将 Faster R-CNN 中的 ROI Pooling 层修改为 ROI Align 层。图 2Mask R-CNN 神经网络总体结构3实验与分析实验与分析3.1精度评价指标本研究使用精确率(Precision)、召回率(Recall)、F1 分数(F1-Score)、平均交并比(meanIntersection-over-Union,mIoU)4 个指标进行精度评定。精确率和召回率对应模型的正确性和完整性,第 2 期王锦洋基于深度学习的高分遥感影像建筑物提取研究55F1 和 mIoU 都是一种综合性评价指标。一般
9、情况下,精确率和召回率是一对矛盾体,无法做到双高,而 F1 分数同时考虑了精确率和召回率,能让二者同时达到最高;mIoU 计算了所有类别交集和并集之比的平均值,取值范围在 01 之间,mIoU 值越大,说明预测效果越好。3.2实验环境配置实验的硬件和软件环境配置为:CPU 为 Intel(R)Xeon(R)E5-2680 v3;显卡为 NVIDIA GEFORCEGTX 1080 Ti;深度学习框架包含 Tensorflow-gpu 1.14、Pytorch 1.1.0 和 Tensorboard 2.0.1。3.3建筑物提取实验与结果分析3.3.1U-Net 和 Mask R-CNN 提取精
10、度对比基于南安地区建筑物数据集,利用 U-Net 和 Mask R-CNN 两种算法提取建筑物。超参数配置中,初始学习率分别为 0.000 1 和 0.1;迭代总数分别为 36 和 60;批量大小分别为 8 和 10。模型训练完成后,令两个算法模型在预先分割好的同一测试集上进行测试,实验结果如图 3 所示。(1)原图(2)真值(3)Mask R-CNN(4)U-Net图 3不同算法建筑物提取结果比较图 3 直观对比了 U-Net 和 Mask R-CNN 模型的提取效果,实验表面,U-Net 方法能更准确的识别出建筑物的边界;对尺度较大的建筑物,U-Net 和 Mask R-CNN 网络模型均
11、取得不错的提取效果,都能将建筑物提取出来;对于一些尺度较小的建筑物,U-Net 模型能将影像中的小尺度建筑物有效的提取出来,Mask R-CNN 有时不能把小尺度建筑物完整的提取出来。此外,相比于 U-Net,MaskR-CNN 存在更多的错检、漏检现象。还发现在建筑物排列比较紧密的情况下,U-Net 提取的信息常常存在一定的相邻边界融合的现象,而 Mask R-CNN 由于在获取建筑物目标候选边界框的同时获得了建筑物掩模,故很少出现这种情况。为了更好的比较这两类模型提取建筑物的效果,表 1 展示了精度评定结果。通过定性比较发现,采用 U-Net 方法训练得到的各项精度评定指标均高于 Mask
12、R-CNN 方法,此外,U-Net 网络花费的训练时间大约是 Mask R-CNN 训练时间的一半。3.3.2不同正负样本比例对提取结果的影响建筑物的提取可以看作是一个二分类问题,包含建筑物的图片为正样本,负样本可以选取任何不是建筑物的其他图片。U-Net 和 Mask R-CNN 的对比实验中,U-Net 精度为 77.24%,未达到理想石家庄铁路职业技术学院学报2023 年第 2 期56的提取精度。研究发现由于实验的研究区较大,导致原始数据集存在样本比例失衡的问题,训练集的正负样本比例为 1:2。正负样本比例失衡容易造成过拟合现象,并会大大降低模型的泛化能力。该实验基于 U-Net 模型进
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 深度 学习 高分 遥感 影像 建筑物 提取 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。