一种结构关系一致的对比聚类方法.pdf
《一种结构关系一致的对比聚类方法.pdf》由会员分享,可在线阅读,更多相关《一种结构关系一致的对比聚类方法.pdf(7页珍藏版)》请在咨信网上搜索。
1、h t t p:/ww wj s j k x c o mD O I:/j s j k x 到稿日期:返修日期:基金项目:基础加强计划重点项目(J C J Q Z D )T h i sw o r kw a ss u p p o r t e db yt h eK e yP r o j e c t so fF o u n d a t i o nS t r e n g t h e n i n gP l a n(J C J Q Z D )通信作者:王立松(w a n g l s n u a a e d u c n)一种结构关系一致的对比聚类方法许洁王立松南京航空航天大学计算机科学与技术学院/人工智能学院
2、/软件学院南京 (x u j i e n u a a e d u c n)摘要作为一项基本的无监督学习任务,聚类旨在将无标签的、混杂的图像数据划分成语义相似的类.最近的一些方法通过引入数据增强,利用对比学习方法学习特征表示和聚类分配,关注模型区分不同语义类的能力,可能导致来自同一语义类样本的特征嵌入被分离的情况.针对以上问题,提出一种结构关系一致的对比聚类方法(C o n t r a s t i v eC l u s t e r i n gw i t hC o n s i s t e n tS t r u c t u r a lR e l a t i o n s,C C R),在实例级和聚类级
3、执行对比学习,并且增加关系级别的一致性约束,让模型学习更多来自结构关系的“正数据对”信息,从而减小聚类嵌入被分离所带来的影响.实验结果表明,C C R方法在图像基准数据集上得到了比近年来的无监督聚类方法更优异的结果.模型在C I F A R 和S T L 数据集上的平均准确度比相同实验设置下的最好方法提升了,在C I F A R 数据集上提升了.关键词:无监督学习;聚类;对比学习;数据增强;过度聚类中图法分类号T P C o n t r a s t i v eC l u s t e r i n gw i t hC o n s i s t e n t S t r u c t u r a lR e
4、 l a t i o n sX UJ i ea n dWAN GL i s o n gC o l l e g eo fC o m p u t e rS c i e n c ea n dT e c h n o l o g y/C o l l e g eo fA r t i f i c i a l I n t e l l i g e n c e/C o l l e g eo fS o f t w a r e,N a n j i n gU n i v e r s i t yo fA e r o n a u t i c s a n dA s t r o n a u t i c s,N a n j i
5、n g ,C h i n aA b s t r a c t A sab a s i cu n s u p e r v i s e dl e a r n i n gt a s k,c l u s t e r i n ga i m st od i v i d eu n l a b e l e da n dm i x e di m a g e s i n t os e m a n t i c a l l ys i m i l a rc l a s s e s S o m e r e c e n t a p p r o a c h e s f o c u s o n t h e a b i l i t
6、 yo f t h em o d e l t od i s c r i m i n a t eb e t w e e nd i f f e r e n t s e m a n t i c c l a s s e sb y i n t r o d u c i n gd a t aa u g m e n t a t i o n,u s i n gc o n t r a s t i v e l e a r n i n gm e t h o d s t o l e a r n f e a t u r e r e p r e s e n t a t i o n s a n dc l u s t e r
7、a s s i g n m e n t s,w h i c hm a y l e a d t os i t u a t i o n s t h a t f e a t u r ee m b e d d i n g sf r o ms a m p l e sw i t ht h es a m es e m a n t i cc l a s sa r es e p a r a t e d A i m i n ga tt h ea b o v ep r o b l e m s,ac o m p a r a t i v ec l u s t e r i n gm e t h o dw i t hc o
8、 n s i s t e n t s t r u c t u r a l r e l a t i o n s(C C R)i sp r o p o s e d,w h i c hp e r f o r m s c o m p a r a t i v e l e a r n i n ga t t h ei n s t a n c e l e v e l a n dc l u s t e r l e v e l,a n da d d sc o n s i s t e n c yc o n s t r a i n t sa t t h er e l a t i o n s h i p l e v e
9、 l S ot h a t t h em o d e l c a n l e a r nm o r e i n f o r m a t i o no fp o s i t i v ed a t ap a i ra n dr e d u c e t h e i m p a c to f c l u s t e re m b e d d i n gb e i n gs e p a r a t e d E x p e r i m e n t a l r e s u l t ss h o wt h a tC C Ro b t a i n sb e t t e r r e s u l t s t h a
10、 nt h eu n s u p e r v i s e dc l u s t e r i n gm e t h o d s i nr e c e n ty e a r so nt h e i m a g eb e n c h m a r kd a t a s e t T h ea v e r a g ea c c u r a c yo nt h eC I F A R a n dS T L d a t a s e t s i m p r o v e sb y c o m p a r e d t o t h eb e s tm e t h o d s i n t h e s a m e e x
11、p e r i m e n t a l s e t t i n g sa n d i m p r o v e sb y o nt h eC I F A R d a t a s e t K e y w o r d s U n s u p e r v i s e dl e a r n i n g,C l u s t e r i n g,C o n t r a s t i v e l e a r n i n g,D a t aA u g m e n t a t i o n,O v e rc l u s t e r i n g引言近年来,在社交媒体平台、医学图像等领域产生了大量的视觉内容,其中大多数是
12、没有标记的.手动标记这些数据非常耗时,超高的成本必然会给这些数据的共享和使用带来巨大的挑战,同时也导致人们对以无监督的方式有效地管理和使用如此大的数据量的需求增加.聚类是一项基本的无监督学习方法.传统的聚类方法,如K M e a n s、谱聚类、非负矩阵分解聚类等,只关注或过多地关注局部的、像素级的信息,忽略了图像更高层次的语义信息,因而性能有限.深度学习在近年来发展势头非常迅猛,越来越多的研究者将深度学习应用到聚类工作中 .I I C使用图像及其随机增强后的图像组成数据对来训练模型学习聚类结果一致性;P I C A通过最大化分区置信度来学习语义上最可信的聚类解决方案;C C创造性地提出“标签
13、作为表示”的思想,显式地执行实例级和聚类级的对比学习;同样,D C D C也注意到只从一个角度进行对比学习而忽略另一个角度,会导致性能较差,提出了特征级与聚类级相结合的方法.这类方法将图像样本数据看作实例,每个实例分别对应一个类,使用数据增强构建数据对,利用最大化互信息的方式从中学习实例表示一致性和聚类表示一致性.实例表示一致性通过最大化实例表示特征与其增强之间的互信息来实现,有助于减少类内方差.聚类表示一致性通过最大化原始图像集群分配分布与其增强之间的互信息来实现,有助于增加类间方差,实现更具区分性的集群分配.尽管学习不同图像之间的区别有助于模型区分来自不同语义类的图片,但此类方法可能会导致
14、同一类的实例被分离的情况,例如:同一类的实例被实例级损失函数认为是不同的图片而分离,导致聚类嵌入的类内方差较大,违背了“良好的聚类嵌入应该具有较小的类内方差和较大的类间方差”的初衷;同一类的图片被错误地分类,被聚类级损失函数认为是不同类别的图片而分离,这样的错误会给模型带来不稳定性,造成误差的积累.针对以上问题,本文提出了一种结构关系一致的对比聚类方法C C R.具体来说,就是在实例级别和聚类级别的对比损失之外,增加一种新的损失函数来惩罚多个样本数据的结构关系之间的差异,目的是让模型学习更多的“正数据对”信息,减轻实例分离带来的影响.这种损失关注的是多个输出数据之间的结构关系一致性而不是单个数
15、据对本身,如图所示.可将多个数据样本之间的距离视为它们之间的结构关系,由此可以分别得到原始样本和增强样本的结构关系.通过约束原始样本关系与增强样本关系之间的差异,提高模型对同一批样本输出相似的关系矩阵的能力,可以提高模型的鲁棒性.并且,将关系表示损失与双重对比损失结合,可以获得更多的正向鉴别特征和更小的聚类嵌入类内方差,从而得到更好的聚类结果.(a)样本视图(b)类别视图(c)关系视图图样本对、类别对及结构关系对之间的差别F i g D i f f e r e n c e sb e t w e e ns a m p l ep a i r s,c l a s sp a i r s,a n ds
16、t r u c t u r a lr e l a t i o n s h i pp a i r s相关工作如何将不同的图片聚类到不同的簇中这一问题已经有了长期的研究和发展.本章将着重介绍两个方面的相关工作,即深度聚类和对比学习.深度聚类聚类的主要目的是将数据分成具有相似特征的数据点组.理论上,相似的样本会被划分到相同的类别,而不同的样本被划分到不同的类别.深度神经网络因为具有高度非线性转换的特性,被用于将数据转换为更适用于聚类的表示.深度嵌入聚类D E C是第一个被广泛认可的深度聚类方法,X i e等使用删除解码部分的自动编码器提取出的特征表示作为聚类模块的输入,并设计新的聚类损失对网络进行微
17、调.C h a n g等提出了一种基于单级网络的深度自适应聚类方法D A C,基于“成对图像之间的关系是二进制的”的假设,将图像聚类任务转化为一个判断图像对是否属于同一聚类的二分类问题.另一方面,由于数据增强技术增强了模型的鲁棒性,研究人员也将其应用到无监督聚类工作中.D C CM 全面探索了不同样本、几何变换的局部鲁棒性以及同一样本不同层特征之间的相互相关性,提出了特征间的三重互信息.针对大多研究中 存 在 的 只 从 单 一 视 图 角 度 学 习 聚 类 的 问 题,C C(C o n t r a s t i v eC l u s t e r i n g)使用双对比学习框架来学习实例级和
18、聚类级相似性,同时学习鉴别特征并进行在线聚类.而C R L C 引入了一种新的批评家函数 “对数点积”来保证对比损失是最优的.在最新的研究中,S C AN 与S P I C E 取得了优异的结果,但此类多阶段图像聚类范式在实践中麻烦且不具备普遍适用性.因此,单阶段端到端的方法研究仍然是必要的.对比学习对比学习着重于学习同类样本之间的共同特征以区分非同类样本.与生成式学习相比,对比式学习可以忽略样本细节,只在抽象语义级别的特征空间上学习区分不同类别的样本,使模型具有更强的泛化能力.正对之间的相似度被最大化,负对之间的相似度被最小化,从而使正对相互靠近而负对相互远离.现有的方法如D C D C和D
19、 R C 通常选择用样本的增强视图作为其正例,而将其他样本的增强视图作为负例.C C修改了正负数据对的选取规则,使用样本的不同增强视图组成正对,而将不同样本在同一增强及不同增强下的视图作为负对,从而得到更多的正负样本对信息,提高对比学习的性能.在实现时,如何设计最优的对比损失是研究者需要解决的一个重要问题.很多方法使用噪声对比估计(N o i s eC o n t r a s t i v eE s t i m a t i o n,N C E)作为对比损失,其核心思想是通过学习数据分布样本和噪声分布样本之间的区别来发现数据特性.N C E将问题转换成二分类问题,区分数据样本和噪声样本,只适用于简
20、单的分类问题.因此,更通用的对比损失I n f o N C E 被推导出来,现有的对比学习方法大多使用I n f o N C E作为损失函数.近两年,对比学习在计算机视觉领域和自然语言处理领域 都 取 得 了 很 多 成 果,如M o C o,S i m C L R,C o n S E R T,S i m C S E 等.在C V的一些任务上,基于对比学习思想的模型的表现甚至超过了有监督学习.本文同样使用对比学习来完成端到端的模型训练.结构关系一致的对比聚类方法对比学习的目标在于最大化正对之间的相似性而最小化C o m p u t e rS c i e n c e计算机科学V o l ,N o
21、 ,S e p 负对之间的相似性,其中一项非常重要的任务在于如何设计正负数据对来满足聚类任务的要求,即相似的样本相互靠近而不同的样本相互远离.针对对比学习更 加 关 注 区 分 不 同 实 例 而 忽 略 类 内 表现的问题,本 文 提 出 一 种 结 构 关 系 一 致 的 对 比 聚 类 方 法C C R,同时利用实例特 征表 示、类 别 表 示 和 关 系 表 示 进 行聚类,如图所 示.受到S i m C L R 的 启 发,C C R使 用 数据增强来 构 建 数 据 对 作 为 输 入.S i m C L R 全 面 展 示 了不同的增强策略对下游任务性能的影响,本文选择随机裁剪、
22、水平翻转、色彩抖 动和 灰 度化 这种类 型的 数 据增 强方法.具体来说,给 定一 个 原始 数据,在数 据增 强 方法 的作用下,得到 其 对 应 的 增 强 数 据.神 经 网 络 作 为 深 度 聚类 模 型 的 骨 干 部 分,主 要 作 用 是 将 输 入 图 像 数 据 经 过 层次化的非线性映射得到新的低 维特 征 表示.为 方 便与 其他已有 的 工 作 进 行 比 较,本 文 采 用R e s N e t 作 为 骨 干网络.图关系结构一致的对比学习框架图F i g C o n t r a s t i v e l e a r n i n gf r a m e w o r k
23、w i t hc o n s i s t e n t r e l a t i o n a l s t r u c t u r e神经网络输出图像的分配概率矩阵被视为特征矩阵.自然地,将分配概率矩阵的行(即每张图片的分配概率向量)看作是图像的特征表示,并且根据“标签作为表示”的思想,矩阵的列作为数据分布情况被看作代表不同语义类的聚类表示.而原始图像和增强图像的结构关系矩阵可以通过相应的概率分配矩阵获得.图中虚线框部分展示了C C R所使用到的种损失.在实例级别,最小化原始图像与增强图像之间的相似度,保证原始图像及其增强的特征表示一致性;在聚类级别,最小化原始类与增强类之间的相似度,保证原始图像及
24、其增强的分配一致性(即原始类与增强类之间的聚类表示一致性);在关系级别,最小化原始结构关系与增强结构关系之间的相似度,保证原始图像及其增强的关系表示一致性.种损失共同训练,有助于形成良好的、更鲁棒的聚类.下面将详细介绍模型中涉及的几种损失函数.实例表示损失基于对比学习的思想,C C R方法将原始图像及其增强视为正对,而将原始图像与其他图像的增强视为负对.形式化来说,给定一批大小为N的原始样本Xx,x,xN,其对应的N个增强样本为X x,x,xN,那么对于任意样本xi,xi与N个增强样本总共可以组成N个数据对.本文将该样本与其对应的增强样本组成的数据对(xi,xi)视为正对,将该样本与其他N个增
25、强样本组成的数据对(xi,xj)视为负对.为了减少对比学习带来的信息损失,本文没有直接使用神经网络f()输出的特征,而是使用非线性ML P g()将其映射到概率分配空间中,得到的概率分配被视为实例的特征表示ug(f(x),u g(f(x).原始样本和增强样本本质是同一实例,应当具有相同的类分配概率.为方便起见,本文选择余弦相似度作为评价正样本对的分配概率是否保持一致性的指标,公式定义为:c o s(u,u)uTu uu()其中,代表L归一化.根据I n f o N C E,实例级别的损失可以定义为:Ls a mEl o ge x p(c o s(ui,ui)/Nje x p(c o s(ui,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一种 结构 关系 一致 对比 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。