基于多重注意力机制的自然图像抠图_林荣.pdf
《基于多重注意力机制的自然图像抠图_林荣.pdf》由会员分享,可在线阅读,更多相关《基于多重注意力机制的自然图像抠图_林荣.pdf(3页珍藏版)》请在咨信网上搜索。
1、2023.4电脑编程技巧与维护1概述抠图是一种技术,它通过精确估计图像中的不透明度来提取出有趣的前景。这种技术可以用来处理图像中的细节,例如,毛发和透明物体。抠图技术的数学基础模型是Porter及Duff1提出的图像生成模型,如公式(1)所示:Ii=iFi+(1-i)Bii0,1(1)在抠图的问题中,仅仅给出一幅图片I,需要计算出前景图像F、背景图像B及不透明度,它与图像合成的求解过程相反。图像抠图的工作目标是为图像中每一个像素预测一个范围为01的不透明度。因为F、B、I每个像素点都由3个颜色通道组成,所以图像抠图就包含7个未知数和3个方程,这是一个病态问题。为了解决这样的计算难题,许多抠图方
2、法采用三分图来预先标记用户指定的前景和背景部分。三分图由确定的前景区域、确定的背景区域和过度区域3个部分组成。抠图算法在这里主要的工作是估计出过度区域中像素的不透明度。自然图像抠图被广泛应用在计算机视觉任务中,例如,人工智能(AI)换脸、电影特效、虚拟现实等。2相关工作通过颜色采样的抠图方法、通过传播的抠图方法及二者结合的方法都属于传统的图像抠图方法。通过采样的抠图方法基于图像的连续性和局部相似性,假设估计未知点所需的前景F和背景B都可以在已知区域中采样得到,例如,Knockout2、Bayesian Matting3、RobustMatting4、Shared Matting5。通过传播的抠
3、图借鉴了场论的思想,把图像看作一个场,每个点都与邻域相关。每个未知点的计算都不是孤立的,而是通过对邻域像素(几何空 间 领域或者颜色空间邻域等)进行一定 关系的计算得到不透明度,例如,Closed Form6、Learning Based7、Large Kernel Matting8、KNN9。传统的抠图方法仅提取图像形状、颜色和纹理等浅层信息。近年来,基于深度学习的方法在各行各业都取得了显著的成就,在自然图像抠图领域也有突破性发展,神经网络具备更好的深层次语义信息提取能力,能够较好地根据图像低层次外观空间信息,对网络同层级的特征信息进行迭代复用。Xu等10提出了一种两阶段的模型,将图像输入模
4、型中,经过神经网络的训练,便可估计出图,同时还制作了自然图像抠图领域第一个较大规模的数据集。3方法3.1方法概述网络模型由生成器和判别器两个部分组成。生成器的作用是生成图,通过训练不断生成无限接近真实图像的伪图,生成器越好,得到的抠图结果越精确;判别器的作用是判断伪图和真实图,哪个为假,哪个为真。提出的模型基于改进的UNet模型作为生成器,利用生成对抗模型来实现自然图像抠图。判别网络采用PatchGAN11,输入一张三通道的图像到判别网络中,判别器能够分辨出这张图像是真实图还是伪图。3.2改进的 UNetUNet模型能够同时 学 习 深 层 特 征 和 浅 层 特 征,因为编码器中的浅层特征通
5、过跳跃连接可以直接与解码器中的深层特征拼接在一起。该网络主要有两个特点,即U型对称结构和跳跃连接结构。对于抠图问题,浅层特征的保留对预测图中的纹理信息有很大的影响,基于UNet模型搭建生成网络,对其作者简介:林荣(1998),女,硕士,研究方向为数字图像处理、自然图像抠图。基于多重注意力机制的自然图像抠图林荣(三峡大学计算机与信息学院,湖北 宜宾443002)摘要:深度学习在图像抠图中发挥着重要作用,但是它容易丢失一些低级语义信息。在此使用 U-Net结构搭建生成网络,并在跳跃连接过程中添加瓶颈注意力模块(BAM),能够有效地融合图像的深层特征和浅层特征。同时在编码器与解码器之间添加一个空洞空
6、间金字塔池化模块(ASPP),拓宽感受野,以多个比例捕捉图像的上下文信息。实验结果表明,相比传统的抠图算法,自然图像抠图提取了更多的细节纹理信息,提高了抠图的精度。关键词:自然图像抠图;生成对抗模型;语义信息;注意力机制144DOI:10.16184/prg.2023.04.0102023.4电脑编程技巧与维护进行改进的地方主要有两点:(1)在每1层的跳跃链接之间添加BAM;(2)在UNet模型的编码器之后新增ASPP。BAM能够有效提高网络的表征能力。ASPP能够扩宽感受野,以多个比例捕捉图像的上下文信息。图像的特征是很复杂的,某些特征在一种尺度中不容易被提取,而在另外的尺度中就可能很容易被
7、提取;或者某些特征是无效特征,会干扰结果精度,这些特征在一种尺度下会被提取,而在另外的尺度下则会被丢弃。ASPP能以多个比例捕捉图像的上下文信息,是DeepLab系列网络的核心,可以显著提高基于分割任务的性能。虽然ASPP参数量大,计算开销也大,但是在抠图模型中的效果非常好。使用的ASPP由一个卷积层、一个平均池化层和3个空洞卷积层组成。其中,空洞卷积的核心是设置适当的空洞率,将空洞率设置为6、12、18。通过设置不同的空洞率对特征图进行重采样,能够有效还原图像细节信息。BAM可以看作空间注意力机制与通道注意力机制的并联。通过添加BAM来提高抠图模型深度学习的性能。实验结果表明,BAM提高了生
8、成网络的准确性,使损失函数加速收敛,缩短了训练周期。4损失函数4.1生成器损失函数提出的生成器使用预测损失和对抗损失加权融合的方法,如公式(2)所示:LG=1L+2Lad(2)其中,LG为文中的生成器损失;1取1;L为预测损失;Lad为对抗损失;2取0.001。预测损失表示在每个像素点处的预测数值与实际数值相减的绝对值,如公式(3)所示:(3)其中,ip为像素点i上的预测值;ig为像素点i上的真实值;取10-6。对抗损失理论综合解析了生成器与判定器的对抗机理,并指导生成器迅速掌握真实图像的纹理等特性。将生成器所预测的图像输入判定器,由判别器获得一个结果矩阵,由这个结果矩阵和全一矩阵张量求均方误
9、差值。如公式(4)所示:(4)其中,G为指生成器的预测结果;D为指判别器的判别结果;Ione为全1矩阵张量。4.2判别器损失函数伪图、相应的前景图像F及背景图像B根据公式(1)生成一张假图像。真实图、相应的前景图像F和背景图像B根据公式(1)生成一张真图像。当将真伪图像输入判别器中时,判定器就可以将伪图像判断为伪,将真图像判断为真。通过使用全零矩阵张量与伪图的输出矩阵计算均方误差,并且使用全一矩阵张量与真图的输出矩阵计算均方误差,将损失函数确定如公式(5)所示:(5)其中,G为指生成器的预测结果;D为指判别器的判别结果;Ione为全1矩阵张量;Zone为全0矩阵。5实验与分析5.1实验环境与训
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 多重 注意力 机制 自然 图像 林荣
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。