ADIC:一种面向可解释图像识别的自适应解纠缠CNN分类器.pdf
《ADIC:一种面向可解释图像识别的自适应解纠缠CNN分类器.pdf》由会员分享,可在线阅读,更多相关《ADIC:一种面向可解释图像识别的自适应解纠缠CNN分类器.pdf(14页珍藏版)》请在咨信网上搜索。
1、ADIC:一种面向可解释图像识别的自适应解纠缠 CNN 分类器赵小阳1李仲年1王文玉1许新征1,21(中国矿业大学计算机学院江苏徐州221116)2(中国矿业大学教育部矿山数字化工程研究中心江苏徐州221116)()ADIC:An Adaptive Disentangled CNN Classifier for Interpretable ImageRecognitionZhaoXiaoyang1,LiZhongnian1,WangWenyu1,andXuXinzheng1,21(School of Computer Science and Technology,China Universit
2、y of Mining and Technology,Xuzhou,Jiangsu 221116)2(Engineering Research Center of Digital mine,China University of Mining and Technology,Ministry of Education,Xuzhou,Jiangsu 221116)AbstractInrecentyears,convolutionalneuralnetwork(CNN),asatypicaldeepneuralnetworkmodel,hasachievedremarkableresultsinco
3、mputervisionfieldssuchasimagerecognition,targetdetectionandsemanticsegmentation.However,theend-to-endlearningmodeofCNNsmakesthelogicalrelationshipsoftheirhiddenlayersandtheresultsofmodeldecisionsdifficulttobeinterpreted,whichlimitstheirpromotionandapplication.Therefore,theresearchofinterpretable CNN
4、s is of important significance and application value.In order to make the classifier of CNNsinterpretable,manyresearcheshaveemergedinrecentyearstointroducebasisconceptsintoCNNarchitecturesasplug-incomponents.Thepost-hocconceptactivationvectormethodstakethebasisconceptastheirrepresentationandareusedt
5、oanalyzethepre-trainedmodels.However,theyrelyonadditionalclassifiersindependentoftheoriginalmodelsandtheinterpretationresultsmaynotmatchtheoriginalmodellogic.Furthermore,someexistingconcept-basedad-hocinterpretablemethodsaretooabsoluteinhandlingconceptsinthelatentclassificationspaceofCNNs.Inthiswork
6、,awithin-classconceptsgraphsencoder(CGE)isdesignedbyintroducingagraphconvolutionalnetworkmoduletolearnthebasisconceptswithinaclassandtheirlatentinteractions.TheadaptivedisentangledinterpretableCNNclassifier(ADIC)withadaptivedisentangledlatentspaceisproposedbasedonCGEbydesigningregularizationterms th
7、at implement different degrees disentanglement of the basis concepts with different dependencies.Byembedding ADIC into ResNet18 and ResNet50 architectures,classification experiments and interpretable imagerecognitionexperimentsonMini-ImageNetandPlaces365datasetshaveshownthatADICcanfurtherimprovethea
8、ccuracyofthebaselinemodelwhileensuringthatthebaselinemodelhasself-interpretability.Key wordsconvolutionalneuralnetwork;interpretability;categorybasisconcept;disentangle;graphconvolutionnetwork摘要近年来,卷积神经网络(convolutionalneuralnetwork,CNN)作为一种典型的深度神经网络模型,在图像识别、目标检测和语义分割等计算机视觉领域中取得了令人瞩目的成效.然而,CNN 端到端的学习
9、模式使其隐藏层的逻辑关系以及模型决策结果难以被解释,这限制了其推广应用.因此,研究可解释的收稿日期:2023-03-31;修回日期:2023-06-08基金项目:国家自然科学基金项目(61976217);中央高校基本科研业务费专项资金(2019XKQYMS87)ThisworkwassupportedbytheNationalNaturalScienceFoundationofChina(61976217)andtheFundamentalResearchFundsfortheCentralUniversities(2019XKQYMS87).通信作者:许新征()计 算 机 研 究 与 发 展
10、DOI:10.7544/issn1000-1239.202330231JournalofComputerResearchandDevelopment60(8):17541767,2023CNN 具有重要意义和应用价值.为了使 CNN 的分类器具有可解释性,近年来涌现出了很多在 CNN 架构中引入基础概念作为插入式成分的研究.事后概念激活向量方法以基础概念为表现形式,用于分析预训练的模型,但依赖独立于原始模型的额外的分类器,解释结果可能并不符合原始模型逻辑.另外,现有的一些基于概念的事前可解释方法对于 CNN 潜在分类空间中的概念处理太过绝对.引入图卷积网络模块,设计了一种类内概念图编码器(wi
11、thin-classconceptsgraphsencoder,CGE)学习类内基础概念及其潜在交互.在 CGE 基础上,设计实现不同依赖关系的基础概念不同程度解纠缠的正则化项,提出了潜在空间自适应解纠缠的可解释 CNN 分类器(adaptivedisentangledinterpretableCNNclassifier,ADIC).将 ADIC 嵌入ResNet-18 和 ResNet-50 架构,在 Mini-ImageNet 和 Places365 数据集上的分类实验和可解释图像识别实验结果表明,ADIC 在保证基准模型具有自解释能力的前提下,可以进一步提高基准模型的精度.关键词卷积神经
12、网络;可解释性;类别基础概念;解纠缠;图卷积网络中图法分类号TP181近年来,对于卷积神经网络(CNN)系列黑盒模型,研究者们提出了越来越多的可解释方法,其中一个主流研究方向是可视化 CNN 隐藏层中的特征表示.然而,神经网络的特征可视化与神经网络的语义解释之间仍存在巨大差距.对于一个对象实例的判断,人类通常是将该实例分解为对象部分,并与存储在脑中的概念进行匹配,作为识别各对象部分的证据,用这些脑海中已识别的概念解释推理过程,做出最终决定.仿照人脑识别物体机制,确定对象部分并构造概念以实现可解释的智能机器模型是一个有潜在研究价值的新兴方向.本文中提到的“概念”在图像识别任务中的本质是“视觉概念
13、”,即具有语义信息且对模型预测起重要作用的像素集.同一视觉概念在不同图像中的表现形式相似,不同视觉概念具有不同的语义信息.例如,斑马的条纹、汽车的轮胎以及鸟类的羽毛等都可以作为其类别的一个基础视觉概念.本文将视觉概念统一简称为概念.基于概念解释模型,一个重要问题就是如何量化定义概念.用概念激活向量进行测试(testingwithconceptactivationvectors,TCAV)1是最早提出使用概念激活向量(conceptactivationvectors,CAV)量化定义概念的方法,CAV 不再分析网络单个节点的特征,而是尝试学习它们的线性组合来表示预定义的概念.ACE2基于 TCA
14、V,通过聚类图像块自动发现定义新概念.ICE3通过对特征图进行非负的矩阵分解修改ACE 框架,为不同实例提供一致的 CAV 权重,提供概念保真度测量措施.上述 3 种基于概念的解释方法也称概念向量方法,都针对预训练模型进行事后分析,且都依赖于概念的潜在空间中存在一个易于分类的分类器的假设.然而,网络的潜在空间并无此特性,即概念向量方法其实是基于一个独立于模型的额外的分类器.理想情况下,一个可解释的 CNN 不应该求助于额外的分类器,而是具有可解释的分类器,即可解释 CNN 的潜在分类空间如何分类概念(解纠缠)对于用户来说应该是透明的或可理解的.现如今构造 CNN 透明潜在分类空间的代表性方法有
15、概念白化(conceptwhitening,CW)4、TesNet5和DeformableProtoPNet6等.CW 模块通过在网络训练过程中强制约束潜在空间的轴与预定义的类别概念对齐,约束不同的类别概念轴方向彼此正交,从而使潜在空间中的类别概念解纠缠.TesNet 引入正交损失以鼓励类内的不同概念之间彼此正交,在 Grassmann流形上构造透明潜在空间.DeformableProtoPNet 受TesNet 启发,在原型零件之间引入正交损失,鼓励类内的所有原型零件彼此之间正交.CW 模块使潜在空间中的所有滤波器的输出完全去相关,TesNet 和DeformableProtoPNet 使同
16、一类别内的概念彼此正交,这些约束要求太过绝对.在实践中有很多概念之间是高度相关或者有相对稳定的空间关系,如“飞机”概念和“天空”概念,“车身”与“车轮”的位置关系等.类比人脑识别物体机制,除了对物体本身各部位的识别外,通常还会参照物体所处环境以及参照物等信息.因此,在保留类别相关概念依赖关系的前提下实现类别的分离,本文引入图卷积神经网络模块构造自适应解纠缠的透明潜在空间,设计了一种可解释的 CNN 分类器.采用无监督方式自动获取类别的基础概念信息,经可解释 CNN 分类器,自主完成不同类别及不相关概念之间的解纠缠.本文的主要贡献有 2 点:1)引入图卷积神经网络模块,设计了类内概念图 编 码
17、器(within-classconceptsgraphsencoder,CGE)自动获取类别基础概念,以图结构形式编码类内概赵小阳等:ADIC:一种面向可解释图像识别的自适应解纠缠 CNN 分类器1755念信息及概念之间的空间信息,学习类内基础概念之间的潜在交互.2)在 CGE 编码器之后,设计了一个自适应解纠缠的可解释 CNN 分类器(adaptivedisentangledinterpre-tableCNNclassifier,ADIC),通过设置三段阈值将潜在空间中的基础概念分为类内相关概念、类内不相关概念和不同类别概念 3 种类型,保留相关概念的依赖关系,在不相关概念之间添加强制性正交
18、约束,从而实现类别概念自适应解纠缠.1相关工作目前提高神经网络可解释性的研究主要分为对现有模型的事后可解释性分析(post-hocexplainabilityanalysis)和直接构建固有事前可解释模型(ad-hocinterpretablemodeling)2 个方向.1.1事后可解释方法事后可解释方法通常是借助模型额外的辅助信息对训练好的神经网络模型节点激活总体趋势的统计,是为了详述黑盒模型内部功能或决策原因而采取的一些行动.根据解释方法的解释目标是模型整体逻辑还是单个输入样本,可以将事后可解释方法分为全局解释和局部解释7.全局解释旨在解释模型内部的整体逻辑和工作机制8-9,主要方法包括
19、激活最大化、代理模型和概念激活向量方法等.激活最大化的思路是合成最大程度激活模型整体或感兴趣神经元输出的输入模式,即表示类别特征的抽象图像.激活最大化方法只能用于连续性数据,例如 DeepDream 算法10.代理模型指的是构造一个可解释的更简单的模型模拟原始网络模型决策,包括网络压缩11-12、知识蒸馏13-15和直接提取16-18.概念激活向量方法的主要思路是基于“视觉概念”,将一组具有相似特征的图像块或图像称之为一个“视觉概念”,例如一组包含条纹的图像块或图像即代表“条纹”概念.谷歌研究团队提出的 TCAV1使用视觉概念进行全局解释,利用方向导数量化模型预测结果对沿着 CAV 方向变化的
20、特定视觉概念的敏感度全局定量评估每个视觉概念对模型预测结果的影响度.TCAV 需要预先定义感兴趣的概念,通过手动收集可以表示特定概念的示例集训练线性分类器,以习得 CAV.针对 TCAV 需要手动收集视觉概念的问题,Amirata 等人2提出了一种自动视觉概念提取方法 ACE,通过图像块聚类定义新概念以自动提取视觉概念,然后利用 TCAV 对提取的视觉概念进行评估.Zhang 等人3提出了基于可逆概念的 ICE 框架,采用非负矩阵分解可以为不同实例的相同特征提供一致的 CAV 权重,并提出一致的保真度测量措施.局部解释通常表现为可视化解释,即以显著图或热力图的形式突出显示输入图像中对预测结果起
21、重要作用的像素区域19-20.除此之外,Liu 等人21还提出了稀疏对比编码(sparsecontrastivecoding,SCC),通过模型每一层的隐藏状态得到词向量的特征重要性,自适应地将输入分为前景和背景的任务相关性,采用监督对比学习损失提高模型可解释性和性能.局部解释方法可以大致分为基于扰动的前向传播显著性方法22-25、基于反向传播的显著性方法26-29和基于类激活映射的显著性方法30-33这 3 种类型.1.2事前可解释方法事前可解释方法是从头设计可以自解释的固有可解释神经网络,自解释模型在应用的同时为用户提供模型输出的决策原因,无需添加额外的信息.事前可解释方法可以避免事后解释
22、方法不忠实于原始模型的偏见,因为事后可解释分析中原始模型预测期间不使用事后解释,预测和解释是 2 个独立的过程.事前可解释方法可以进一步分为模型翻新和可解释表示34.模型翻新是指设计模型可解释组件或新的网络结构编码特定的语义概念,实现模型内置可解释性.例如,Chen 等人35-36设计基于案例推理的神经网络结构来剖析图像,通过类别典型特征解释模型推理.Wang 等人5提出可解释的深度模型 TesNet,构造类别子空间分离的透明潜在空间,并约束类内概念彼此正交.Jon 等人6提出 DeformableProtoPNet,提供空间灵活的可变形原型,可以捕捉到目标对象的姿势变化和环境,相比 Prot
23、oPNet35具有更加丰富的解释.Peng 等人37提出了类别可解释的神经聚类(interpretableneuralclustering,TELL)网络,其将 k 均值目标重新表述为神经层,实现了算法透明化.可解释表示通常是采用正则化技术在神经网络训练过程中学习更具可解释性的语义表示,从模型的可分解性、单调性和稀疏性等方面设计正则化项,实现模型内部表征解纠缠.例如,Zhang 等人38设计了一种将每个滤波器响应约束到高层卷积层中特定对象部分的正则化损失,获取解纠缠表示.Lage 等人39提出新颖的 human-in-the-loop 正则化项,通过用户评估已完成训练的多个网络模型的响应时间来
24、衡量对模型的理解程度,选择用户响应时间最短的模型.Chen 等人4提出一种概念白化模块,直接约束潜在空间,强制潜在空间的1756计算机研究与发展2023,60(8)轴与预定义概念对齐,不同概念之间彼此正交.基于模型翻新技术的 TesNet 和 DeformableProtoP-Net 以及基于可解释表示技术的概念白化模块,均以视觉概念为中间形式实现模型可解释图像识别.概念白化模块、TesNet 和 DeformableProtoPNet 强制约束类内基础概念彼此正交甚至基础概念块间彼此正交,约束过于绝对,忽略了基础概念之间可能存在高依赖度的潜在交互.另外,概念白化模块使用预定义概念,概念集和模
25、型训练集相互独立.本文针对上述问题,设计了一种自适应解纠缠的可解释分类器,通过引入图结构学习类内基础概念特征及其之间的依赖关系,对具有不同依赖度的基础概念进行不同程度的正则化约束,在保留高依赖度基础概念之间潜在交互信息的同时,实现类内不相关概念及不同类别概念的解纠缠,即实现透明化潜在分类空间.2基础理论 2.1ICE 框架基 于 概 念 的 可 逆 解 释(invertibleconcept-basedexplanations,ICE)框架是一个为预训练的 CNN 模型提供局部和全局概念级解释的框架,它采用非负矩阵分解提出非负概念激活向量(non-negativeconceptactivati
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- ADIC 一种 面向 可解释 图像 识别 自适应 纠缠 CNN 分类
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。