欢迎来到咨信网! | 成为共赢成为共赢 咨信网助力知识提升 | 自信网络旗下运营:咨信网 自信AI创作助手 自信AI导航
咨信网
全部分类
  • 包罗万象   教育专区 >
  • 品牌综合   考试专区 >
  • 管理财经   行业资料 >
  • 环境建筑   通信科技 >
  • 法律文献   文学艺术 >
  • 学术论文   百科休闲 >
  • 应用文书   研究报告 >
  • ImageVerifierCode 换一换
    首页 咨信网 > 资源分类 > PDF文档下载
    分享到微信 分享到微博 分享到QQ空间

    基于深度迁移学习的肠道息肉癌变风险评估.pdf

    • 资源ID:578609       资源大小:1.82MB        全文页数:10页
    • 资源格式: PDF        下载积分:10金币
    微信登录下载
    验证码下载 游客一键下载
    账号登录下载
    三方登录下载: QQ登录
    二维码
    微信扫一扫登录
    下载资源需要10金币
    邮箱/手机:
    验证码: 获取验证码
    温馨提示:
    支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    开通VIP
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    声明    |    会员权益      获赠5币      写作写作
    1、填表:    下载求助     索取发票    退款申请
    2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
    6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    7、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

    基于深度迁移学习的肠道息肉癌变风险评估.pdf

    1、 doi:10.3772/j.issn.1002-0470.2023.06.007基于深度迁移学习的肠道息肉癌变风险评估程 珊叶 然 曹 婧 姚佳锋 李 胜 何熊熊(浙江工业大学信息工程学院 杭州 310023)(丽水市人民医院 丽水 323400)摘 要 针对肠道息肉分类中不同类型息肉难以区分的问题,提出了一种基于深度迁移学习的肠道息肉癌变风险评估方法。该方法首先在主干网络中引入通道注意力进行息肉特征提取;然后将任务网络注意力图分支输出的注意力图加权到主干网络输出的特征图上,获取更精确的病灶特征;最后将加权后的特征图输入到任务网络的感知分支,使用 2个分支的损失函数以端到端的方式优化模型,以

    2、进行息肉癌变风险评估。本文方法对数据集进行了增强,并结合迁移学习进一步提升分类效果,最优模型的灵敏度、特异度、精准度、F1 分数及曲线下方的面积(AUC)分别为 99.38%、98.15%、98.17%、98.77%和0.9996。实验结果表明,本文方法能有效地对肠道息肉癌变风险进行评估,性能优于该领域流行的深度学习方法。关键词 深度学习;迁移学习;通道注意力;注意力图;图像分类;肠道息肉0 引 言结直肠癌是最常见和致命的癌症之一,根据2020 年世界癌症报告,结直肠癌已成为发病率第3 的癌症1。肠道息肉是引发早期结直肠癌变的主要肠道疾病之一,且不同类型息肉的癌变风险不同。筛查肠道息肉和评估其

    3、癌变风险对于预防早期结直肠癌很重要,若筛查出高风险息肉应当尽快手术切除。然而做结肠镜检查时,医生凭借肉眼对息肉分类的准确性与医生的经验很相关,这种人工操作难度较大、费时耗力,且易造成漏诊和误诊2。因此,需要开发计算机辅助诊断技术来实现息肉癌变风险评估,以协助医生对癌变风险不同的息肉进行分类。传统的息肉分类方法通常基于特征提取和分类器训练。Stehle 等人3利用腺瘤和增生息肉表面血管特征的区别来对息肉分类,通过相位对称和快速行进相结合对血管进行分割,以计算血管长度、血管中心线处的平均灰度和平均血管周期。Tamaki 等人4采用高斯差分和网格采样等方案提取局部特征,使用表示局部特征的视觉单词包和

    4、支持向量机组成的识别系统对息肉进行分类。Mesejo 等人5利用二维颜色特征、二维纹理特征和三维形状特征对增生性病变、锯齿状腺瘤和腺瘤进行分类。传统方法基于手工特征工程,需要大量的工程技能,反复微调多个参数,且模型泛化能力差、适应性低6。深度学习7在息肉分类任务中已具有出色的表现。Zhang 等人8开发了一种用于息肉检测和分类的自动系统,使用迁移学习,利用深度卷积神经网络从大型非医学数据集中学习到的特征参数来对息肉分类。Shaban 等人9提出了一种新的大肠组织学图像上下文感知学习框架。但这些深度学习方法或忽略了局部病变区域的细微特征,或依赖组织学数据对肠道息肉进行分类。因为医学图像采集困难,

    5、标记的数据集较小,息肉类内病灶形状差异大,026 高技术通讯 2023 年 第33 卷 第6 期:620-629 国家自然科学基金(61873239)和浙江省教育厅一般科研(Y202043133)资助项目。女,1997 年生,硕士生;研究方向:智慧医疗;E-mail:2268980570 。通信作者,E-mail:849221400 。(收稿日期:2021-09-14)病变区域与正常组织之间高度相似,模型性能通常受到限制。针对上述问题,本文使用数据增强对原始数据集进行了扩展,基于深度学习,提出了引入通道注意力的主干网络用于息肉特征提取,使用注意力图聚焦局部病灶区域,并结合迁移学习来进一步提高息

    6、肉分类的效果,从而实现利用结肠内窥镜图像有效地对息肉癌变风险进行评估。1 方 法1.1 数据增强肠道息肉常见的有炎症性息肉、幼年性息肉、增生性息肉和腺瘤性息肉 4 种类型。各类型息肉的癌变风险不同,炎症性息肉、幼年性息肉和增生性息肉几乎不发生癌变,属于低风险息肉,腺瘤性息肉癌变风险较高。幼年性息肉可通过患者年龄来判别,因此本方法不对幼年性息肉进行计算机辅助分类。建立的结肠内窥镜息肉图像数据集包括炎症性息肉、增生性息肉和腺瘤性息肉 3 种类型的息肉图像,其中腺瘤性息肉分为管状腺瘤和绒毛状腺瘤。如图 1所示。图 1 不同类型息肉原始图像原始息肉图像周围的黑色区域含有实验并不需要的注释信息,使用 m

    7、ask 技术盖住了这些无用的注释信息,再将图像大小裁剪为 560 480 像素。由于原始数据集的样本数量较小,且各类别样本数量不平衡,结肠内窥镜在拍摄肠道时角度随机,息肉图像有时因为曝光而过亮,有时因为光照不足过暗、对比度低,有时有泡泡、杂质等,因此本方法对原始息肉图像采用了亮度调整、对比度调整、随机翻转、随机旋转、加高斯噪声等一系列基本的数据增强操作,扩展了息肉样本数量,使类别的样本数量平衡,使训练的模型能够对质量较差的息肉图像进行分类。如图 2所示,图 2(a)是遮盖无用信息并裁剪后的息肉图像,图 2(b)是亮度调整后的息肉图像,图 2(c)是对比度调整后的息肉图像,图 2(d)是随机翻转

    8、后的息肉图像,图2(e)是随机旋转后的息肉图像,图2(f)是加高斯噪声后的息肉图像。图 2 增强后的息肉图像1.2 ResNet50 卷积神经网络ResNet5010由很多个相似的残差块串联而成,残差块结构如图 3 所示,输入 x 经过残差路径的 3个卷积层后输出 F(x),再将 F(x)与输入 x 相加,经过 ReLU 激活后得到整个残差块的输出。图 3 残差块结构ResNet50 结构如图 4 所示,网络第 1 层是步长126程 珊等:基于深度迁移学习的肠道息肉癌变风险评估为 2、通道数为 64 的 7 7 卷积层,降采样后经过BN(batch normalization)层和 ReLU

    9、激活层;第 2 层是步长为 2 的 3 3 最大池化层;接着就是分别具有3、4、6、3 个残差块的卷积层 Conv2x、Conv3x、Conv4x、Conv5x,其中 Conv2x 的步长为 1,其余卷积层的步长均为 2;最后经过 7 7 平均池化层(average pooling,Avgpool)和全连接层(fully con-nected layers,FC)后输出类别。ResNet50 在训练的图 4 ResNet50 结构后向传播时更好地将深层梯度传到上一层,利于构建更深的网络。1.3 基于 ResNet50 改进的网络结构ResNet50 在图像领域取得了显著成果,但是应对复杂的息肉

    10、图像进行分类时性能仍有提升空间。因此,针对不同类型息肉图像难以区分的特点,本方法提出了一种基于 ResNet50 改进的网络结构,用于对肠道息肉癌变风险的评估。如图 5 所示,本方法改进的网络结构包括主干网络和任务网络 2 部分,主干网络基于 ResNet50 的前 40 层卷积层,任务网络包括 2 个并行执行任务的分支结构:注意力图分支和感知分支。本方法在整个网络的残差块结构中引入了通道注意力,同时将注意力图在特定通道方向上与主干网络输出的特征图进行加权,从而为网络引入空间注意力。本方法结合了通道注意力机制和空间注意力机制,能够更加准确地聚焦于息肉病灶区域。此外,生成的注意力图实现了模型对息

    11、肉区域聚焦作用的可视化,为网络做出的决策提供了直观的依据,同时能够在临床中对医生进行病灶位置提示。图 5 整体模型网络结构 主干网络的输入为 224 224 像素的结肠内窥镜息肉图像,其相当于一个特征提取器,用于息肉图像的细微特征提取,以克服不同类型息肉的类内病灶形状、大小差异大的问题,同时输出特征图。主干网络的结构基于改进的 ResNet50 前 40 层卷积层,首先是 7 7 卷积层、BN 层、ReLU 激活层和最大池化层 MaxPool,接下来就是引入通道注意力模块(channel attention module,CAM)的残差块卷积层Conv2x、Conv3x、Conv4x,它们分别

    12、具有 3、4、6个引入 CAM 的残差块。通过在这些残差块中引入CAM,使主干网络能够自动学习特征图中各通道的权重,关注重要的特征,抑制不相关的特征,以便主干网络更有效地提取特征。任务网络的注意力图分支接收来自主干网络输226高技术通讯 2023 年 6 月 第 33 卷 第 6 期出的特征图,并通过引入基于响应的视觉解释模型11来生成注意力图。注意力图分支首先将特征图输入到 Conv5x 以提取更深层的特征,Conv5x具有 3 个引入 CAM 的残差块,经过 BN 层、1 1 卷积层后进行 ReLU 激活,ReLU 激活后分为 2 个小分支:一个小分支经过 3 3 卷积层、BN 层后通过

    13、Sig-moid 激活输出注意力图 可视化图像中具有高度响应的区域,从而聚焦于病灶;另一个小分支经过1 1 卷积层、14 14 全局平均池化层(global aver-age pooling,GAP)和全连接层(FC)后,对息肉癌变风险高低的类别进行判断。本方法利用注意力机制的思想,将注意力图分支生成的注意力图在特定通道上与主干网络输出的特征图进行点积,再与特征图相加得到新特征图,即将注意力图分支已学习到的空间方向上像素的权值加到主干网络输出的特征图上,相当于给网络引入了空间注意力。感知分支类似于一个分类器,将特征图通过具有 3 个引入 CAM 的残差块卷积层 Conv6x、7 7平均池化层(

    14、Avgpool)、FC 后,对息肉癌变风险高低的类别进行判断。使用注意力图分支和感知分支 2个分支损失函数的加权和作为总训练损失函数,来对整个模型进行端到端的优化训练,克服不同类型息肉相似性大的问题,以提高模型对肠道息肉癌变风险评估的性能。1.4 通道注意力残差模块近年来,注意力机制已被广泛应用于计算机视觉应用的深度学习中,其核心思想是模拟人类视觉的感知机制,聚焦特征图中最重要的局部,从而消除计算机视觉应用中的冗余部分12。因此,为聚焦结肠内窥镜息肉图像中的息肉部分,本方法提出了一种有效的通道注意力机制,它使网络自动确定通道方向特征的重要性,过滤性地选择特征,使网络能够更有效地提取特征,且能以

    15、较低的计算量成本提高网络的分类性能,其结构如图 6 所示。在图 6 中,将图像输入到残差块,经过 1 1 卷积、3 3 卷积、1 1 卷积后输出特征图 Fi,其中 C表示特征图的通道数目,H 和 W 分别代表特征图的高和宽。将 Fi作为输入,经过 CAM 后输出 C 1 1的通道注意力因子(channel attention factors,CAF)。图 6 具有通道注意力的残差模块在 CAM 中,输入的特征图首先通过全局 MaxPool 进行下采样,以保留最重要的信息,并降低计算量。接着将下采样后的特征图展平为一维向量,再经过一层 1 1 卷积,以从向量中提取特征并调整其维数。然后使用 BN

    16、 层和 ReLU 激活层对提取的特征进行处理,以提高模型训练的收敛速度和非线性表示能力。最后,经过一层全连接层 FC、ReLU 激活和 Sig-moid 激活函数输出 C 1 1 的 CAF,CAF 的值范围在 0 1 之间,其大小反映了通道的重要性。经过CAM 后,将 CAF 与特征图 Fi逐元素相乘进行融合,输出融合后的特征图 Fi,其过程表示为式(1)和式(2),最后将 Fi 与残差块的输入相加后作为输出,再进入到下一个具有 CAM 的残差块。CAF=CAM(Fi)(1)Fi=CAF Fi(2)1.5 迁移学习本方法基于监督学习对结肠内窥镜息肉图像进行分类。监督学习需要大量标注过的数据,

    17、而原始结肠内窥镜息肉图像的获取代价大、采集困难,所以标记的息肉图像数据集通常较小。虽然卷积神经网络具有很强的表征能力,但由于数据集规模的受限,模型的性能依然会受到限制。迁移学习可以用来解决这个问题,迁移学习将神经网络在大规模源数据集上已训练好的模型(预训练模型)参数复制到目标网络中,来帮助新的模型训练13-14,其过程示意326程 珊等:基于深度迁移学习的肠道息肉癌变风险评估图如图 7 所示。图 7 迁移学习在图 7 中,预训练网络是已经在 ImageNet 自然数据集上训练好的 ResNet50 分类网络模型,其在ImageNet 数据集上学到的一些空间特征可以有效地帮助学习息肉图像中与自然

    18、图像共有的特征。本研究迁移了 ResNet50 预训练模型的参数,去初始化与本研究方法网络共有层的权重,从而加快并优化了网络的学习收敛效率,得到了性能更优的肠道息肉癌变风险评估模型。1.6 损失函数本文方法同时使用任务网络的注意力图分支和感知分支 2 个分支的损失函数加权和以端到端的方式对模型进行优化训练。每个分支的训练损失由结合标签平滑15的交叉熵损失来计算,交叉熵损失函数 L 表达为式(3),其中 N 表示总样本数量,yi表示样本 i 的标签,pi表示样本 i 预测为正类的概率。分类问题中,常认为训练数据中标签向量的目标类别概率应为 1,非目标类别概率应为 0。传统 one-hot 编码的

    19、标签向量 yi为式(4)。标签平滑是一种正则化方法,它结合均匀分布,用新的标签向量yi来代替 yi,yi表示为式(5),其中 是一个很小常量,本方法经过实验设置 =0.05,K 是类别数量,本文 K=2。标签平滑后的分布相当于给真实分布加入噪声,避免模型对正确标签过于自信,降低对正负样本的预测差别,从而可以显著地提升神经网络的学习速度和泛化能力,避免过拟合。L=1Ni-yilog(pi)+(1-yi)log(1-pi)(3)yi=1 i=target0 i target(4)yi=1-i=target/(K-1)i target(5)总训练损失函数 L(xi)是注意力图分支和感知分支 2 个分

    20、支损失函数的加权和,其公式表示为式(6)。在反向传播过程中,通过传递注意力图分支和感知分支的梯度来优化整个模型。用 Latt(xi)表示输入样本为 xi时的注意力图分支损失,Lper(xi)表示输入样本为 xi时的感知分支损失,经过实验,设置 为 0.1,为 0.9 时模型最优。L(xi)=Latt(xi)+Lper(xi)(6)2 实 验2.1 实验整体流程实验的整体流程如图 8 所示,首先建立包括训练集、验证集和测试集的数据集,并通过数据增强对数据集进行扩展,搭建基于深度迁移学习的两分支网络框架,在训练集上学习权重建立模型,通过验证集来调整模型参数,在测试集上测试已经训练好的模型的性能。图

    21、 8 实验流程2.2 数据集2.2.1 癌变风险数据集从丽水市人民医院消化内科 405 个病例收集了405 张原始结肠内窥镜图像,所有受试者均签署了知情同意书,所有图像均由经验丰富的医生进行了手动标注,并按病理活检结果进行了分类。由于炎症性息肉和增生性息肉几乎不发生癌变,腺瘤性息肉有一定的癌变风险,所以特别需要对腺瘤性息肉进行判别。因此,将管状腺瘤和绒毛状腺瘤划分为高风险,炎症性息肉和增生性息肉划分为低风险。这样原始数据集有 135 张高风险和 270 张低风险息426高技术通讯 2023 年 6 月 第 33 卷 第 6 期肉图像,将原始数据集按照 3 1 1 的比例随机划分为训练集、验证集

    22、和测试集,即原始数据集的训练集包含 81 张高风险和 162 张低风险息肉图像,验证集和测试集均包含 27 张高风险和 54 张低风险息肉图像,这 3 个子数据集互相独立不重复。利用数据增强分别对原始数据集的 3 个子数据集进行了扩展。由于类别不平衡,原始高风险数据集扩展了 12 倍,原始低风险数据集扩展了 6 倍,数据集信息见表 1。2.2.2 Kvasir 公开数据集为进一步验证本方法所提出网络的泛化能力和稳定性,本文从最大的公开胃肠图像数据集 Kvasir 公开数据集中选取了一些正常图像和息肉图像作为分类数据集,以进行对比实验。该数据集包括 1000 张正常图像和 1000 张息肉图像,

    23、也按照3 1 1的比例随机地划分为训练集、验证集和测试集,数据集信息见表 1。表 1 数据集的统计信息数据集类别训练集验证集测试集癌变风险数据集高风险972324324低风险972324324Kvasir 公开数据集正常600200200息肉6002002002.3 实验细节本文实验基于 1.6.0+cu101 版 PyTorch 深度学习框架和 Python 3.7 编程语言。硬件配置为 Intel(R)Xeon(R)Silver 4210R CPU2.40 GHz 2.39 GHz(2处理器),64 GB 内存,3 块 NVIDIA GeForce RTX2080 SUPER GPU 并行

    24、计算,提高训练速度。本实验训练模型时批尺寸(batch size)设为 32,使用 Ad-am 优化器来优化模型参数,其参数为 lr=0.0001,1=0.9,2=0.999,eps=1e-8,并使用 StepLR 机制来调整学习率,实验对模型进行了 100 迭代(ep-ochs)训练。训练前,将所有读入的图像的像素尺寸均调整为 224 224 像素后再输入到网络。为了评估网络的分类性能,本研究使用常应用在医学图像二分类算法的评价指标 灵敏度(sensitivity)、特异度(specificity)、精准度(precision)以及 F1 分数来定量评估模型的性能。这 4 个评价指标的计算方

    25、式表示如下。sensitivity=TPTP+FN 100%(7)specificity=TNTN+FP 100%(8)precision=TPTP+FP 100%(9)F1-score=2precisionsensitivityprecision+sensitivity(10)其中,真阳性(true positive,TP)表示被模型预测为阳性的阳性样本,真阴性(true negative,TN)表示被模型预测为阴性的阴性样本,假阳性(false positive,FP)表示被模型预测为阳性的阴性样本,假阴性(false negative,FN)表示被模型预测为阴性的阳性样本。此外,本方法使

    26、用了受试者工作特征(receiv-er operating characteristic,ROC)曲线下方的面积(area under the ROC curve,AUC)来进一步评估癌变风险评估模型的准确性。2.4 实验结果与分析2.4.1 样本扩展前后对比训练卷积神经网络时,训练集的样本数量越多,所得模型测试的性能会更好,本方法采用了一系列基本的数据增强技术对数据集进行了扩展,并对数据增强前后进行了对比实验分析,结果见表 2。实验结果表明,经过数据增强后,模型的灵敏度、精准度和 F1 分数得到了有效的提升,因此在后续不同模型性能的对比实验中,本文使用扩展后的癌变风险数据集。表 2 在癌变风

    27、险数据集上的对比结果模型数据灵敏度特异度精准度F1 分数本文方法原始数据集 92.59%98.15%96.15%94.34%扩展数据集 99.38%98.15%98.17%98.77%2.4.2 在癌变风险数据集上的消融对比表 3 展示了本方法所提出的基于 ResNet50 改进的两分支网络 T-Res50、引入通道注意力 CAM、使用标签平滑 Lable-smooth、结合迁移学习后模型的消融实验性能比较。从实验结果可以发现,在引入CAM 后模型的灵敏度、特异度、精准度和 F1 分数分别提升了 1.86%、1.85%、1.91%和 1.88%;引入526程 珊等:基于深度迁移学习的肠道息肉癌

    28、变风险评估CAM 并使用标签平滑后,模型的灵敏度、精准度、F1分数分别继续提升了 2.47%、0.31%和 1.41%;经过迁移学习后,各项指标比随机初始化的模型都提升了 10%以上。可见,利用大规模自然图像预训练的网络参数初始化网络,可以进一步提升模型性能,有效地改善深度学习模型因为数据不足而导致性能低的问题。表 3 在癌变风险数据集上的消融对比模型灵敏度特异度精准度F1 分数T-Res5083.02%86.11%85.67%84.33%CAM+T-Res5084.88%87.96%87.58%86.21%CAM+lable-smooth+T-Res5087.35%87.96%87.89%8

    29、7.62%本文方法99.38%98.15%98.17%98.77%表 4 展示了本文方法在癌变风险数据集的测试集上生成的混淆矩阵,在 324 张高风险息肉样本中,有322 张得到正确的分类;在 324 张低风险息肉样本中,有 318 张得到正确的分类。表 4 在癌变风险测试集上分类结果的混淆矩阵混淆矩阵预测标签高风险低风险真实标签高风险低风险32262318图 9 展示了本文方法任务网络的注意力图分支在癌变风险数据集的测试集上生成的注意力图,可视化了注意力机制的效果。图 9(a)是高风险息肉原图,图 9(b)是高风险息肉的注意力图,图 9(c)是低风险息肉原图,图 9(d)是低风险息肉的注意力

    30、图。所有息肉原图的像素为 560 480,生成的注意力图像素为 224 224。从图 9 中的注意力图可以看出,本方法的注意力图分支可以较准确地聚焦于图像中的息肉病灶区域,高响应区域的边界也比较清晰,将这些注意图加权到主干网络输出的特征图上再输入到感知分支,可以进一步地提高网络的分类效果。从图 9(d)中可以看出,对于体积较小的低癌变风险息肉图像,本网络也能较好地聚焦其病灶区域。图 9 注意力图图 10 展示了本文方法训练的准确率和损失曲线。从图 10 中可以看出,模型的准确率曲线很快达到饱和,且饱和时的数值接近 1,损失曲线震荡较小,损失收敛数值接近 0。图 10 准确率和损失曲线2.4.3

    31、 不同方法在癌变风险数据集上的对比为了验证本方法对肠道息肉癌变风险评估的有效性,在癌变风险数据集上,本文将所提出的基于ResNet50 改进的方法与本领域国内外流行的几个深度学习方法:ResNet5010、ResNext5016、DenseNet12117、SENet5018、EfficientNet-b019、Triple-Attention20等进行了息肉分类对比实验。经过与几个深度学习方法的对比实验,本方法客观地展现出其优越性。表 5展示了不同方法在癌变风险数据集上的性能对比。从表中可以看出,其他几个深度学习方法的 3个评价指标均不超过90%,而基于 ResNet50 改进的卷积神经网络

    32、结合迁移学习后以 99.38%的灵敏度、98.15%的特异度、98.17%的精准度、98.77%的F1 分数实现了对高风险息肉的识别,能有效地对肠626高技术通讯 2023 年 6 月 第 33 卷 第 6 期道息肉癌变风险进行评估。表 5 在癌变风险数据集上的对比结果模型灵敏度特异度精准度F1 分数ResNet501082.10%84.57%84.18%83.13%ResNext501680.86%87.35%86.47%83.57%DenseNet1211781.48%84.57%84.08%82.76%SENet501883.64%81.48%81.87%82.75%EfficientN

    33、et-b01975.31%79.32%78.46%76.85%Triple-Attention2075.93%82.10%80.92%78.34%本文方法99.38%98.15%98.17%98.77%在二分类算法的评价中,AUC 是常用的评价指标,被定义为 ROC 曲线下的面积,AUC 值较高的算法通常被认为更好,图 11 展示了不同方法模型在癌变风险数据集上测试的 ROC 曲线和 AUC。图 11 不同方法识别高风险息肉的 ROC 曲线从图 11 中可以看出,本文提出的两分支网络T-Res50 的 AUC 为 0.9208,高于其他几个深度学习方法,引入 CAM、使用标签平滑并结合迁移学习

    34、后,其 AUC 达到 0.9996,进一步证明该模型对高风险息肉分类的准确性,对肠道息肉癌变风险评估的有效性。2.4.4 不同方法在癌变风险数据集上的测试对比分析在癌变风险数据集的测试集上,本文分别对 10种不同的模型进行了参数量和 GPU 测试时间的对比分析,实验结果如表 6 所示,所有模型均采用Batch-size 为 32 的批量来测试。表 6 不同模型的参数量和时间对比模型参数量/MGPU 时间/s灵敏度ResNet501023.511387.00%ResNext501622.981787.50%DenseNet121176.961489.50%SENet501826.031889.0

    35、0%EfficientNet-b0194.011087.00%Triple-Attention2023.511286.50%T-Res5038.491791.00%CAM+T-Res5042.601891.50%CAM+lable-smooth+T-Res5042.601892.00%本文方法47.741898.50%从表 6 中的实验结果中可以发现,本文方法的参数量为 47.74M,GPU 测试时间为 18 s,相比于其他方法模型,虽然本文提出方法的模型参数量和GPU 测试时间有所增长,但是在时间损耗可以考虑的情况下,本文方法的灵敏度具有更加明显的优势。2.4.5 不同方法在 Kvasir

    36、公开数据集上的对比为了证明本文方法模型的泛化能力和稳定性,本研究在 Kvasir 公开数据集上将本文方法与其他深度学习方法进行了对比。表 7 展示了不同方法在Kvasir 公开数据集上的性能对比的实验结果。从表 7可以看出,本文方法相较于其他对比的深度学习方法也具有更好的效果,其灵敏度、特异度、精准度、F1分数分别为98.50%、99.00%、98.99%和98.75%,表 7 在 Kvasir 公开数据集上的对比结果模型灵敏度特异度精准度F1 分数ResNet501087.00%90.50%90.16%88.55%ResNext501687.50%93.00%92.59%89.97%Dens

    37、eNet1211789.50%91.00%90.86%90.18%SENet501889.00%91.50%91.28%90.13%EfficientNet-b01987.00%91.50%91.10%89.00%Triple-Attention2086.50%90.00%89.64%88.04%T-Res5091.00%90.50%90.55%90.77%CAM+T-Res5091.50%93.50%93.37%92.42%CAM+lable-smooth+T-Res5092.00%93.50%93.40%92.70%本文方法98.50%99.00%98.99%98.75%726程 珊等:基

    38、于深度迁移学习的肠道息肉癌变风险评估说明本方法所提出的网络具有很好的泛化能力和稳定性。3 结 论针对结肠内窥镜息肉图像数据集的样本数量有限,息肉类内图像病灶大小形状差异大、病变区域与正常组织之间高度相似等问题,本文首先通过数据增强对结肠内窥镜息肉图像数据集进行了扩展,并基于深度学习和迁移学习,提出了一种新的肠道息肉癌变风险评估的方法。本文方法对 ResNet50 进行了改进,建立了一个包括主干网络和任务网络 2部分的两分支网络;在整个网络的残差块中引入通道注意力,自动学习通道的权重,增强网络的特征表达能力;通过将注意力图分支生成的注意力图与主干网络输出的特征图加权,为网路引入空间注意力;通过生

    39、成的注意力图增加了深度学习方法的解释性;使用 2 个标签平滑的交叉熵损失的加权和以端到端地方式对模型进行训练,提高了模型的泛化能力和稳定性。另外,为证明其泛化能力和稳定性,本文在公开数据集上进行了对比实验。实验结果表明,本方法的性能优于一些流行的深度学习方法,能有效地对结肠内窥镜息肉图像进行分类,为肠道息肉癌变风险评估提供了一种有效的新途径,具有一定的临床实用价值。本文方法还存在不足,目前的结肠内窥镜图像数据集有限、数据量较少,且距离实际应用于临床还远远不够,在后续的工作中,不仅要构建更完善的数据集,还要进一步提升模型的准确度。参考文献 1 WILD C P,WEIDERPASS E,STEW

    40、ART B W.Worldcancer report:cancer research for cancer preventionM.Lyon:International Agency for Research on Canc-er,2020:1-613.2 LEONARDO Z,BROCK C,BURT A D,et al.Comput-er-aided diagnosis for charaterising colorectal lesions:in-terim results of a newly developed softwareJ.Gastroin-testinal Endoscop

    41、y,2018,87(6):AB245.3 STEHLE T,AUER R,GROSS S,et al.Classification ofcolon polyps in NBI endoscopy using vascularization fea-turesCMedical Imaging 2009:Computer-Aided Di-agnosis.Lake Buena Vista:SPIE,2009:72602S.4 TAMAKI T,OSHIMUTA J Y,KAWAKAMI M,et al.Computer-aided colorectal tumor classification i

    42、n NBI en-doscopy using local featuresJ.Medical Image Analy-sis,2013,17(1):78-100.5 MESEJO P,PIZARRO D,ABERGEL A,et al.Comput-er-aided classification of gastrointestinal lesions in regularcolonoscopyJ.IEEE Transactions on Medical Imaging,2016,35(9):2051-2063.6 范姗慧,刘士臣,曹鹗,等.无线胶囊内窥镜图像小肠息肉的自动识别J.中国生物医学工

    43、程学报,2019,38(5):522-532.7 赵新秋,贺海龙,杨冬冬,等.基于改进的卷积神经网络在图片分类中的应用J.高技术通讯,2018,28(Z2):50-56.8 ZHANG R,ZHENG Y,MAK T,et al.Automatic detec-tion and classification of colorectal polyps by transferringlow-level CNN features from nonmedical domain J.IEEE Journal of Biomedical and Health Informatics,2017,21(1):

    44、41-47.9 SHABAN M,AWAN R,FRAZM M,et al.Context-aware convolutional neural network for grading of colorec-tal cancer histology imagesJ.IEEE Transactions onMedical Imaging,2020,39(7):2395-2405.10 HE K,ZHANG X,RENS,et al.Deep residual learningfor image recognitionCProceedings of the IEEE Con-ference on

    45、Computer Vision and Pattern Recognition.LasVegas:IEEE,2016:770-778.11 OQUAB M,BOTTOU L,LAPTEV I,et al.Is object lo-calization for free?-Weakly-supervised learning with con-volutional neural networksCProceedings of the IEEEConference on Computer Vision and Pattern Recognition.Boston:IEEE,2015:685-694

    46、.12 HAFIZ A M,PARAH S A,BHAT R.Attention mecha-nisms and deep learning for machine vision:a survey ofthe state of the artC Proceedings of the IEEE Con-ference on Computer Vision and Pattern Recognition.On-line:IEEE,2021:1-24.13 SOEKHOE D,PUTTEN P,PLAAT A.On the impact ofdata set size in transfer lea

    47、rning using deep neural net-worksCInternational Symposium on Intelligent Data826高技术通讯 2023 年 6 月 第 33 卷 第 6 期Analysis.Stockholm:Springer,2016:50-60.14 ZHAO W.Research on the deep learning of the smallsample data based on transfer learningCProceedingsof American Institute of Physics Conference.Chongq

    48、ing:AIP,2017:020018.15 MLLER R,KORNBLITH S,HINTON G E.When doeslabel smoothing help?J.Advances in Neural Informa-tion Processing Systems,2019,32:1-10.16 XIE S,GIRSHICK R,DOLLR P,et al.Aggregated re-sidual transformations for deep neural networks C Proceedings of the IEEE Conference on Computer Visio

    49、nand Pattern Recognition.Honolulu:IEEE,2017:1492-1500.17 HUANG G,LIU Z,VAN DER MAATEN L,et al.Dense-ly connected convolutional networksCProceedings ofthe IEEE Conference on Computer Vision and PatternRecognition.Honolulu:IEEE,2017:4700-4708.18 HU J,SHEN L,SUNG.Squeeze-and-excitation networksCProceed

    50、ings of the IEEE Conference on ComputerVision and Pattern Recognition.Salt Lake City:IEEE,2018:7132-7141.19 TAN M,LE Q.Efficientnet:rethinking model scaling forconvolutional neural networksCInternational Confer-ence on Machine Learning.Long Beach:ICML,2019:6105-6114.20 MISRA D,NALAMADA T,ARASANIPALA


    注意事项

    本文(基于深度迁移学习的肠道息肉癌变风险评估.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表




    页脚通栏广告
    关于我们 - 网站声明 - 诚招英才 - 文档分销 - 便捷服务 - 联系我们 - 成长足迹

    Copyright ©2010-2024   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:4008-655-100    投诉/维权电话:4009-655-100   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   



    关注我们 :gzh.png  weibo.png  LOFTER.png