基于变分贝叶斯对比网络的非参数图像聚类方法.pdf
《基于变分贝叶斯对比网络的非参数图像聚类方法.pdf》由会员分享,可在线阅读,更多相关《基于变分贝叶斯对比网络的非参数图像聚类方法.pdf(10页珍藏版)》请在咨信网上搜索。
1、摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇基基于变分贝叶斯对比网络的非参数图像聚类方法张胜杰1摇 摇 王一飞1摇 摇 向摇 旺1摇 摇 薛迪展2摇 摇钱胜胜2摘摇 要摇非参数图像聚类中聚类簇数是未知的,需要模型自动发现.虽然一些现有的贝叶斯方法可以自动推断聚类簇数,但由于计算成本过高或过于依赖已学习到的特征,在大规模图像数据集上并不可行.因此,文中提出基于变分贝叶斯对比网络的非参数图像聚类方法.首先,利用 ResNet 提取图像特征.然后,提出深度变分迪利
2、克雷过程混合优化方法,自动推断聚类数量,可直接嵌入端到端的深度模型,并可与特征提取器进行联合优化.最后,提出极化对比聚类学习,利用极化标签去噪策略对标签进行去噪和极化处理,并利用极化标签与数据增强预测标签进行对比学习,联合优化图像特征提取器和分类器.在三个基准数据集上的实验表明,文中方法性能较优.关键词摇 非参数图像聚类(NIC),贝叶斯方法,对比聚类,极化标签,变分方法引用格式摇 张胜杰,王一飞,向 旺,薛迪展,钱胜胜.基于变分贝叶斯对比网络的非参数图像聚类方法.模式识别与人工智能,2023,36(9):832-841.DOI摇 10.16451/ki.issn1003鄄6059.20230
3、9006摇 摇 摇 摇 摇 摇 中图法分类号摇 TP 18Nonparametric Image ClusteringBased on Variational Bayesian Contrastive NetworkZHANG Shengjie1,WANG Yifei1,XIANG Wang1,XUE Dizhan2,QIAN Shengsheng2ABSTRACT摇 The number of clusters in nonparametric image clustering is unknown and it needs to bediscovered by the model auto
4、matically.Although some existing Bayesian methods can automatically inferthe number of clusters,they are not feasible on large鄄scale image datasets due to the high computationalcosts or over鄄reliance on learned features.Therefore,nonparametric image clustering based on variationalBayesian contrastiv
5、e network is proposed in this paper.Firstly,image features are extracted by ResNet.Secondly,deep variational Dirichlet process mixture is put forward to automatically infer the number ofclusters,and it can be directly embedded into end鄄to鄄end deep models and jointly optimized with featureextractors.
6、Finally,polarized contrast clustering learning is presented,and the denoising strategy withpolarized label is utilized to denoise and polarize the labels.The polarized labels and data augmentedpredicted labels are employed for comparative learning to jointly optimize image feature extractors andclus
7、tering model.Experiments on three benchmark datasets show that the performance of the proposedmethod is superior.Key words 摇Nonparametric Image Clustering(NIC),Bayesian Algorithm,Contrastive Clustering,Polarizing Label,Variational Method收稿日期:2023-07-06;录用日期:2023-09-20Manuscript received July 6,2023;
8、accepted September 20,2023国家自然科学基金项目(No.62276257)资助Supported by National Natural Science Foundation of China(No.62276257)本文责任编委 陈松灿Recommended by Associate Editor CHEN Songcan1.郑州大学 河南先进技术研究院摇 郑州 4500032.中国科学院自动化研究所 多模态人工智能系统全国重点实验室摇 北京 1001901.Henan Institute of Advanced Technology,Zhengzhou Univer
9、鄄sity,Zhengzhou 4500032.State Key Laboratory of Multimodal Artificial Intelligence Sys鄄tems,Institute of Automation,Chinese Academy of Sciences,Beijing 100190第 36 卷摇 第 9 期模式识别与人工智能Vol.36摇 No.92023 年 9 月Pattern Recognition and Artificial IntelligenceSep.摇2023摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇 摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇摇Citati
10、on摇 ZHANG S J,WANG Y F,XIANG W,XUE D Z,QIAN S S.Nonparametric Image ClusteringBased on Variational Bayesian Contrastive Network.Pattern Recognition and Artificial Intelli鄄gence,2023,36(9):832-841.摇 摇 图像聚类1-4旨在图像类别标签不可用的情况下,将图像聚为不同的簇,这是一项重要的无监督学习任务.由于深度学习5的出现,深度图像聚类已成为图像聚类研究的主要领域之一.然而,绝大多数现有的深度图像聚类6-
11、8关注有参数的图像聚类任务(Parametric Image Clustering,PIC),即聚类数量作为先验信息已经给出,但在实际情况中,聚类数量往往是未知的.在聚类数量未知的情况下,有参数的聚类方法明显达不到相当的效果.因此,本文将研究重心聚集在一个更具有现实意义的任务上,即非参数图像聚类(Nonparametric Image Clustering,NI鄄C)9-10.在 NIC 中,聚类数量被定义为 K,值未知.贝叶斯方法是针对 NIC 的传统解决方法,其中迪利克雷过程混合方法(Mixtures of Dirichlet Proce鄄sses)11由于其坚实的数学基础和高效的实践性能
12、引起学者们的广泛关注.然而,对于迪利克雷过程混合方法,传统的蒙特卡洛马尔可夫链采样方法12-13十分耗时.因此,为了提高效率,变分方法14-16将预测问题转化为优化问题.但是,现有的针对迪利克雷过程混合的变分方法需要在整个数据集上进行优化,如果在大规模数据集17-18上,计算开销非常大.此外,现有的大多数贝叶斯方法,包括 DeepDPM19,遵循迪利克雷过程混合方法的思想,并在深度学习的框架中使用一种分离/融合的机制以发现聚类数量,分开进行特征学习与聚类.但是最近的深度聚类研究7-8,20-21表明,联合训练特征与分类器可以有效促进性能提升,从而提高聚类性能.针对上述问题,如何构建一个能够扩展
13、到大规模数据集的高效非参聚类方法,并且与深度学习方法在一个端到端的框架中无缝嵌入是解决非参数聚类的关键点之一.最近,对比学习方法22-23能够有效学习样本的特征表示,在深度聚类任务中引起持续关注.对比学习的思想是构造样本对:如果两个样本对是正样本对,认为是相似的两个样本,将其距离拉近;否则,如果两个样本对是负样本,认为两个样本是不相似的样本,将其距离拉远.Zhong 等20提出 DRC(DeepRobust Clustering),研究交互信息与对比学习之间的内在关系,将交互信息最大化转化为最小化对比损失.Li 等7提出 CC(Contrastive Clustering),同时优化实例和簇级
14、对比损失,从实例样本视角和聚类视角进行优化.Zhong 等8提出 GCC(Graph CC),设计基于图拉普拉斯对比损失和基于图的对比学习策略,学习更多的判别特征和更紧凑的聚类分配.然而,现有的对比聚类方法和大多数其它深度聚类方法依赖于已经给出的聚类数量,数据增强产生的随机噪声影响对比学习的稳定性和效率.此外,在当前的研究中,常忽略预测的聚类标签会倾向于接近某个独热编码这一现象.因此,如何利用对比聚类中产生的噪声和聚类标签接近某个独热编码的特性,增强对比学习的效率和判别能力是提高非参数聚类的性能表现的关键点之一.因此,本文提出基于变分贝叶斯对比网络的非参数图像聚类方法,可以自动搜索聚类数量,并
15、将聚类模型与对比学习整合进一个端到端的框架中.首先,提出深度变分迪利克雷过程混合优化方法(DeepVariational Dirichlet Process Mixture,DVDPM),优化迪利克雷过程高斯混合模型的变分推理损失,自动发现新的聚类簇.本文的变分推理损失基于变分分布和后验分布的 Kullback鄄Leibler(KL)散度,能够在一个批次内优化,进而可扩展到大规模数据集上.同时,变分推理损失可以与其它设计好的损失进行联合优化,如对比损失,使 DVDPM 能够自动发现新簇,并无缝嵌入到深度学习方法中.然后,提出极化对比聚类学习方法,高效学习图像特征和分类器.设计的极化标签去噪策略
16、利用预测标签和生成的极化标签间的噪声对整个模型进行优化.为了能够让极化标签与预测标签进行对比优化,提出极化对比损失,能够有效优化模型并拟合数据.在三个基准数据集上的实验表明,本文方法性能较优.1摇基于变分贝叶斯对比网络的非参数图像聚类方法1.1摇 任务描述假设一个数据集O=x1,x2,xN,包含N幅图像,其中xi表示第i幅图像,由RGB组成的张量表示.图像聚类任务旨在预测聚类标签yiNi=1,其中yi表示第 i 幅图像的标签.在参数图像聚类中,聚类338第 9 期摇 摇 摇 摇 张胜杰摇 等:基于变分贝叶斯对比网络的非参数图像聚类方法数量 K 是给出的,然而在非参数图像聚类中,K 是未知的,需
17、要被发现.1.2摇整体框架本文提出基于变分贝叶斯对比网络的非参数图像聚类方法,总体框图如图 1 所示.?OOwSsFsFwFo?YYYwps图 1摇本文方法框架图Fig.1摇 Framework of the proposed method本文方法由如下部分构成:1)图像特征提取器.对于给定的输入图像,使用ResNet24进行图像特征提取.2)深度变分迪利克雷过程混合优化方法(DVD鄄PM).对于得到的图像特征,使用 DVDPM 优化迪利克雷过程高斯混合模型.3)极化对比聚类学习.通过极化标签去噪策略生成去噪的极化标签,并与预测标签通过极化对比学习损失进行优化.本文方法首先使用共享参数的图像特
18、征提取器分别对原始图像集 O、数据增强图像集 Ow和数据增强图像集 Ss进行特征提取,分别得到 Fo,Fw,Fs.再对 Fw、Fs使用 DVDPM,得到预测标签Y卒w与Y卒s.Y卒s使用变分推理损失对 DVDPM 进行优化.最后,通过 Fo计算聚类中心,得到预测标签Y卒w对应索引的极化标签 Yp,与 Y卒s在标签空间进行极化对比聚类学习.1.3摇图像特征提取器为了更好地得到图像的细粒度特征表示,本文使用 ResNet24进行图像特征的细粒度特征信息提取.图像特征提取器如下所示:fi=AvgPool(ResNet(xi,兹)沂 R2048.其中:ResNet()输出为一个 49 伊 2 048
19、维的数组;AvgPool()为平均池化函数,可以将数组转化为2 048 维的向量;兹 为 ResNet 的参数.为了 提 高 模 型 训 练 的 效 率,本 文 使 用 与DeepDPM 相同的 MoCo(Momentum Contrast)23对ResNet 进行无监督的预训练.1.4摇深度变分迪利克雷过程混合优化方法为了发现聚类数量,并将聚类方法与特征学习方法融入一个统一的深度学习框架中,本文提出深度变分迪利克雷过程混合优化方法(DVDPM).在迪利克雷过程混合模型11中,浊*1,浊*2,表示混合权重,zn表示与第 n 个输入数据特征 hn关联的混合成分的赋值变量.整个过程可描述为如下断棒
20、构造过程:1)Draw vi琢 Beta(1,琢),i 沂 N+.2)Draw 浊*iG0 G0,i 沂 N+.3)对于第 n 个数据点:(1)Draw znv1,v2,Mult(仔(v),其中仔(v)=vi仪i-1j=1(1-vj);(2)Draw hnzn p(hn浊*zn).其中:Mult()表示多项式分布,G0表示一个非原子概率分布.在 DPGMM 中,p(hn浊*zn)是一个多元高斯分布,由参数浊*zn=滋zn,撞zn构成,如hn N(滋zn,撞zn).由于深度神经网络可以在表示空间中学习线性尺度,不同维度也被认为是独立的,因此本文采用各向同性高斯以简化计算,如撞zn=diag(滓2
21、zn,滓2zn,滓2zn).此外,G0为一个正态伽马分布,G0=NormalGamma(滋0,c,a,b).因此,基于上述推断,可以将高斯分布的参数表示为(滋zn,撞zn)NormalGamma(滋0,c,a,b).在迪利克雷过程混合模型的先验下,无法直接计算后验分布,需要近似推断方法,因此引入马尔可夫链蒙特卡罗(Markov Chain Monte Carlo,MCMC)采样方法12-13.然而,由于数据点是串行生成的,MCMC 的采样效率低下,尤其是在大规模数据集上,采样缓慢.变分推理提供一种确定性和高度并行的算法以逼近似然性和后验.DVDPM 通过推导 DPGMM(Dirichlet P
22、rocessGaussian Mixture Model)25的深度变分推理损失以优化整个模型,并且可以无缝嵌入到深度神经网络中.438模式识别与人工智能(PR&AI)摇 摇 摇第 36 卷但下面两个缺点导致现有的变分推理方法14-16不适用于本文的任务:1)必须同时对所有数据进行聚类,这在大型数据集(如本文实验中的数据集)上不可行,因为内存和计算成本过高;2)很难与基于批处理的深度学习训练方式结合.为了解决上述问题,DVDPM 参数化迪利克雷和高斯混合,可以单独预测每个观测的高斯分配概率,降低内存和计算成本,并使其可以以批处理的方式进行训练.此外,DVDPM 的参数和输入可以通过具有特定目标
23、的损失函数的反向传播算法联合优化.考虑 DPGMM 的参数兹=琢,滋0,c,a,b,隐变量w=v,浊*,z,观察值H=h1,h2,hn,使 q酌(w)为变分参数 y 作为索引的分布簇,目标是最小化 q酌(w)和隐变量的后验分布 p(wh)的 KL散度:KL(q酌(w)椰p(wH,兹)=Eqln q酌(w)-Eqln p(w,H兹)+ln p(H兹).在本文使用 q 作为期望的下标时,省略变分参数 酌.上式的最小化可以替换为对数边缘似然ln p(h兹)下界的最大化:ln p(H兹)逸 Eqln p(w,H兹)-Eqln q酌(w),其中差值为 q酌和 p 之间的 KL 散度.由于本文方法是基于
24、DPGMM 的断棒构造,可以扩展变分下界并进行优化.本文需要一个近似于无限维随机测度 G 分布的变分分布簇,可用无穷集合v=v1,v2,和浊 表示.由于特定数据集通常包含有限簇,本文采用截断值 T 足够大(在实现中比 K 大得多,以避免 K的信息泄漏)的断棒构造.因此,q(vT=1)=1,意味着当 t T 时,混合比例 仔t(v)=0.本文参数化截断的 v=v1,v2,vT-1.对于截断的高斯混合,参数浊*=浊*1,浊*2,浊*T=(滋1,撞1),(滋2,撞2),(滋T,撞T).在观测到高斯分量后,hn的赋值概率q酌(zn=i)邑 N(hn滋i,撞i).所有的变分参数酌=v1,vT-1,滋1,
25、滋T,撞1,撞T.再计算变分下界的所有项.为了将 DVDPM 整合进深度学习,得到变分损失:Lvar(H)=-Eqln p(v琢)-Eqln(浊*滋0,c,a,b)-移Nn=1(Eqln p(znv)+Eqln p(hnzn,浊*)+Eqln q酌(v,浊*,z).因此,可以将 Lvar添加到最终损失函数中,并联合优化模型.对于大多数候选簇,后验概率 仔i(v)迅速缩减到接近 0,可用簇的数量将其减少到接近 K.为了简化表示,表示概率向量:q(zn)=DVDPM(hn)沂 RT.DVDPM 伪代码如下.算法 1摇 DVDPM输入 摇原始数据集 O,数据增强集 Ow,数据增强集 Ss,截断值 T
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 分贝 对比 网络 参数 图像 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。