基于Attention-ResUNet的肝脏肿瘤分割算法.pdf
《基于Attention-ResUNet的肝脏肿瘤分割算法.pdf》由会员分享,可在线阅读,更多相关《基于Attention-ResUNet的肝脏肿瘤分割算法.pdf(5页珍藏版)》请在咨信网上搜索。
1、Computer Era No.10 20230 引言根据世界卫生组织调查,2020年全球新增肝癌例达90余万例,并导致83余万人死亡1。对于肝肿瘤的治疗,肝肿瘤区域的分割算法为射频消融技术提供了有效的辅助。通常,肿瘤分割靠经验丰富的医师观察患者的CT图像,凭经验来划分肿瘤区域。由于人体器官的复杂性和人力资源的限制,因此,计算机辅助诊断成为一种较好的方法。传统的肝肿瘤区域检测方法一般基于图像形态学2,基于灰度、纹理、亮度、对比度等信息应用分类器进行分割3。这些方法通常包括基于图像灰度值分布的阈值分割法、基于灰度相似性和空间邻近性的区域生长法、基于目标区域边缘的边缘检测、基于像素灰度的聚类算法。
2、CT图像中肿瘤与周围器官对比度差,肿瘤区域相对较小,且肿瘤分布的位置和数量不规则,传统算法难以实现肝脏肿瘤的精确分割。近年来,深度学习在医学图像分割等许多领域取得了显著的成就,其中 U-Net 以其在各类不同的生物医学分割应用中的出色表现而闻名,并成为了后续众医学分割模型的基准网络4。本文旨在以U-Net为基准网络,设计一个高效的分割网络,对 CT 图像进行肝脏肿瘤区域的自动分割,以提高医护人员的诊疗效率。DOI:10.16644/33-1094/tp.2023.10.021基于Attention-ResUNet的肝脏肿瘤分割算法*陈哲1,童基均1,潘哲毅2(1.浙江理工大学信息科学与工程学院
3、,浙江 杭州 310018;2.中国人民武装警察部队海警总队医院信息科)摘要:为了给患者下一步诊疗提供判断依据,研究了利用CT图像对肝脏肿瘤区域进行自动分割,提出一种新的深度神经网络Attention-ResUNet。该网络重新设计U-Net的编解码结构,在特征提取模块中结合残差模块来加强了特征映射,并利用通道注意力机制和空间注意力机制对特征重新标定,增强有效特征,使得特征能够高效传输。实验表明,Attention-ResUNet在3D-IRCADb数据集和LiTS数据集均能取得接近标注数据的分割性能。关键词:CT图像;残差模块;肝脏肿瘤分割;U-Net;注意力机制中图分类号:TN183文献标
4、识码:A文章编号:1006-8228(2023)10-100-05Liver tumor segmentation algorithm based on Attention-ResUNetChen Zhe1,Tong Jijun1,Pan Zheyi2(1.School of Information Science and Technology,Zhejiang Sci-Tech University,Hangzhou,Zhejiang 310018,China;2.China Coast Guard Hospital of the Peoples Armed Police Force)Abs
5、tract:To automatically segment liver tumors using CT images and provide a basis for subsequent diagnosis and treatment,anew deep neural network called Attention-ResUNet is proposed,in which the encoder-decoder structure of U-Net is redesigned,thefeature mapping is enhanced by incorporating residual
6、module into the feature extraction module,and the extracted features arerecalibrated by using the channel attention mechanism and the spatial attention mechanism.It enhances the effective features andimproves the features transmission.Experiments show that Attention-ResUNet achieves segmentation per
7、formance close to annotateddata on both 3D-IRCADb dataset and LiTS dataset.Key words:CT images;residual net;liver tumor segmentation;U-Net;attention mechanism收稿日期:2023-03-30*基金项目:嘉兴市科技计划项目合同书(2021AD30081)作者简介:陈哲(1998-),男,福建莆田人,硕士研究生,主要研究方向:计算机视觉与图像处理、医学图像分割。通讯作者:童基均(1977-),男,浙江杭州人,博士,教授,主要研究方向:计算机视觉
8、与图像处理、医疗信息化建设。100计算机时代 2023年 第10期1 研究内容本文针对现有深度学习方法存在的不足,提出的一 种 基 于 U-Net 的 融 合 注 意 力 机 制 的 深 度 网 络Attention-ResUNet(AR-UNet)。主要内容如下:通过对 CT图像进行限制对比度自适应直方图均衡化(contrast limited adaptive histogram equal-ization,CLAHE)预处理,加强目标区域与背景区域的对比度。加强U-Net的编解码结构的特征提取模块,将残差模块中的恒等映射融入编解码结构中,提升特征的传递。对特征提取模块得到的上下文信息利用
9、注意力机制模块,对特征重新标定,加强有效特征的传输,使得跳跃连接传输的上下文信息更为高效。2 本文方法本文提出的方法包括图像预处理以及利用AR-UNet进行图像分割两个步骤,在预处理阶段通过限制对比度自适应直方图均衡化(Contrast Limited AdaptiveHistogram Equalization,CLAHE)对 CT图像进行目标区域对比度增强,然后通过本文提出的模型先对肝脏区域进行分割提取感兴趣区域(regionofinterest,ROI),最后对ROI区域进行肿瘤区域分割。2.1 图像预处理为了增强肝脏区域以及肝脏肿瘤区域与其他无关背景区域的对比度,本文使用了 CLAHE
10、 对 CT图像来进一步增强。自适应直方图均衡化(AdaptiveHistogram Equalization,AHE),是一种用于提高图像对比的数字图像处理技术6。它与普通直方图均衡化(Histogram Equalization,HE)的不同之处在于通过领域区域计算出的变换函数来调整每个像素。直方图均衡化推导如下式:Pr(rk)=nkn,0 rk 1,k=0,1,.,l-1sk=T()rk=j=0kPr()rj=j=0knjn,0 rk 1其中,nk表示离散形式的灰度图灰度级别为rk的像素数量,Pr(rk)表示rk的概率密度,sk为像素rk经过变换函数T()变换后的灰度值。本文将灰度图做归一
11、化处理以简化计算,因此式中0=rk,sk=1。再将求得的归一化之后的灰度级sk逐一映射成8-bit灰度级别。CLAHE的计算基于HE,通过计算多个直方图,每个直方图对应于图像的不同部分,并利用这些直方图重新校准图像的灰度值。同时,CLAHE对图像灰度图对比度的限制,对子块中统计的直方图的阈值进行设置,将超过阈值的分布均匀分散到概率密度分布上。经CLAHE预处理之后的CT图像如图1所示,CLAHE避免了过度放大图像中概率密度函数值过大的区域,从而避免了将直方图强烈地峰值化,导致无关的噪声被放大。图1经CLAHE预处理后样本2.2 Attention-ResUNet(简称AR-UNet)网络结构在
12、肝脏肿瘤分割任务中,U-Net编码器、解码器结构存在特征提取不足、特征提取模块的结构过于冗余造成了过多的训练参数,以及跳跃连接直接传输浅层卷积提取的特征与造成的图像特征模糊等问题。对此本文对U-Net进行改进,提出了AR-UNet,进行肝脏肿瘤分割。图2Attention-ResUNet网络架构AR-UNet 其网络结构如图 2 所示。本文修改了U-Net的编码器、解码器结构。不同于其他将残差模块应用于跳跃连接阶段的改进网络,本文利用残差网络中恒等映射的优点加强特征传输的优点7,在U-Net101Computer Era No.10 2023的收缩、扩张路径利用残差单元取代了原始U-Net的卷
13、积操作。为了加强特征通道的权重和特征的上下文信息,使得模型聚焦于特征向量的有效信息,本文在每个残差单元中融入混合注意力机制8。AR-UNet重新设计U-Net中的特征提取模块,以提高模型的学习效率,同时保证通过跳跃连接的传输的特征更加细化。原始U-Net收缩、扩张路径的两层卷积核的情况下,直接引入残差块会导致残差映射退化成y=w1x+x,以及下层路径中,过多的卷积核造成网络结构的冗余。在原始U-Net中编码器最底层中,其卷积核的数量达到了1024个。为了继承U-Net设计思想,不论收缩、扩展路径都是两层卷积核的形式的特征提取模块。在图2中,黑色矩形块表示了加入注意力机制的残差模块。为了不使残差
14、映射退化,本文结合了残差网络中的瓶颈层设计思想替换每一层的卷积核。瓶颈层的设计如图3所示,以图2 Attention-ResUNet网络架构中编码器第三层为例代表的操作。每一层通过的11卷积对数据进行降维,再通过的33卷积进行特征提取。最后为了恢复特征通道数,再将特征经过stride为1的11卷积进行升维。在升维操作后,通过融合注意力机制来提高模型的表征能力。在瓶颈层的末端,通过串行执行通道注意力模块9以及空间注意力模块10,使得模型能够增强有效特征的通道同时聚焦于特征的有效空间信息。因此,本文以瓶颈层的设计代替了原始的特征提取模块。输入特征为上层特征经过下采样得到的特征,并经过残差函数F()
15、的计算。图3Attention-ResUNet瓶颈层结构为了进一步细化特征F,提取的特征经过注意力机制模块如图4所示。图4注意力机制模块经过通道注意力模块将空间维度进行压缩,得到特征通道权重的映射Mc,Mc计算如下:Mc()F=()MLP(AvgPool(F)+MLP(MaxPool(F)=()W1(W0(Fcavg)+W1(W0(Fcmax()其中,表示Sigmoid激活函数。W0,W1为共享权重,本文W0,W1 RC Cr,r为缩放因子对特征进行压缩,用于减小参数,简化计算量。再经过点乘操作,对特征重新校准。求得的重新校准的特征可用式计算:F=Mc(F)F经过通道注意力模块提取后得到特征F
16、,再经过后续的空间注意力模块,对模型的空间信息进行校准。空间注意力模块通过对特征F进行最大池化和平均池化操作,分别求得两个特征Fsavg、Fsmax如下:Fsavg=AvgPool(F)Fsmax=MaxPool(F)最后利用空间注意力机制,空间注意力映射Ms可用式计算:Ms()F=()f7 7()Fsavg;Fsmax其中,;表示连接操作,f7 7表示卷积核为77的卷积操作。进而求得的空间映射Ms与F累乘操作,得到经过通道校准以及聚焦空间信息的特征F:F=Ms()F F将特征F与恒等映射累加,即为l层输出特征。本文通过改进U-Net的特征提取模块,来使网络在肝脏肿瘤分割任务上取得更优秀的表现
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 Attention ResUNet 肝脏 肿瘤 分割 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。