基于径向基网络的无监督亲子关系验证.pdf
《基于径向基网络的无监督亲子关系验证.pdf》由会员分享,可在线阅读,更多相关《基于径向基网络的无监督亲子关系验证.pdf(8页珍藏版)》请在咨信网上搜索。
1、第40卷第4期2023年7月新疆大学学报(自然科学版)(中英文)Journal of Xinjiang University(Natural Science Edition in Chinese and English)Vol.40,No.4Jul.,2023基于径向基网络的无监督亲子关系验证张鑫坤,范永胜(重庆师范大学 计算机与信息科学学院,重庆 401331)摘要:亲子关系验证旨在通过给定的两张图像判断其是否具有亲子关系,该问题在机器视觉领域日益受到人们的关注 现有的方法将工作重心放在学习更有效的度量、提取更有判别力的特征、选择更好的分类器上,无法较好地解决成对图像之间差异大的问题 提出了
2、基于径向基网络(RBFN)的无监督分类方法,该方法首先将图像进行聚类,然后将聚类中心点作为径向基核函数的中心点,利用RBFN在成对图像之间建立多变量插值函数,为了使函数逼近的效果更好,将RBFN的输出与子女方图像计算损失并将损失反向传播,不断优化网络模型,最后根据阈值完成分类 算法在公共数据集KinFaceW和UB KinFace上进行了5折交叉验证,结果充分证明了所提方法的有效性及对样本间差异的适应性,为后续亲子关系验证研究提供参考关键词:分类;径向基网络;计算机视觉;亲子关系验证DOI:10.13568/ki.651094.651316.2023.02.22.0001中图分类号:TP391
3、.4文献标识码:A文章编号:2096-7675(2023)04-0453-08引文格式:张鑫坤,范永胜.基于径向基网络的无监督亲子关系验证J.新疆大学学报(自然科学版)(中英文),2023,40(4):453-460.英文引文格式:ZHANG Xinkun,FAN Yongsheng.Radial basis function network for unsupervised kinship verifica-tionJ.Journal of Xinjiang University(Natural Science Edition in Chinese and English),2023,40(
4、4):453-460.Radial Basis Function Network for Unsupervised Kinship VerificationZHANG Xinkun,FAN Yongsheng(School of Computer and Information Technology,Chongqing Normal University,Chongqing 401331,China)Abstract:Kinship verification aims to verify whether kinship exists in the given two images.The pr
5、eviousmethods focus on feature extraction or selecting better classifiers,yet they can not handle the barrier of hugedifference between paired images.This paper proposed an unsupervised classification method based on radial basisfunction network(RBFN),which firstly clustered the image,and then took
6、the cluster center points as the centerpoints of the radial basis function,then used the RBFN to establish a multivariable interpolation function betweenthe pair images.In order to make the function approximation better,the output of RBFN is used to calculate theMSE loss with the childrens images,an
7、d the loss is back-propagated to continuously optimize the network model,finally completed the classification according to the threshold.5-Fold cross validation experiments on two publiclyavailable kinship datasets KinFaceW and UB KinFace demonstrate the effectiveness of our proposed method andits a
8、daptability to the differences.Key words:classification;radial basis function;computer version;kinship verification0引 言人脸包含丰富的生物信息,亲子关系就是其中之一1 亲子关系验证旨在通过在给定的成对图像之间,判断二者是否具有亲子关系,该问题由Fang等2于2010年提出亲子关系验证在计算机视觉领域是一个有趣且充满挑战的问题 其拥有广阔的应用场景,比如走失儿童寻亲、家族族谱构建、社交媒体分析以及人脸识别增强等 与人脸识别不同,没有一个确切的度量来判断二者是否具有亲子关系 亲子关
9、系验证要处理的是两个人的图像,而两张图像的采集几乎不可能是在同一个环境下发生的,因此二者在亮度、背景、姿态、表情、遮挡等方面各不相同,这就造成了双方的共性特征极难获取 此外,通常父母和其子女之间年龄差异显著,而不同年龄段的面部特征差异较大,使得亲子关系验证更加困难 不仅收稿日期:2023-02-22基金项目:重庆师范大学校内一般课题“基于神经网络的亲属关系验证研究”(2022)7208)作者简介:张鑫坤(1996-),男,硕士生,从事亲子关系验证的研究,E-mail:xinkun 通讯作者:范永胜(1970-),男,博士,副教授,主要从事信号与信息处理的研究,E-mail:454新疆大学学报(
10、自然科学版)(中英文)2023年如此,父母与其子女之间的性别差异亦增加了验证的难度,由于遗传特征的复杂性,父亲与女儿之间、母亲与儿子之间的验证更具挑战性尽管研究者们在此问题上付出了极大努力,开发出了许多方法来进行亲子关系验证,然而到目前为止,尚未有一个统一而成熟的系统满足人们的需要,面向真实世界的使用还很遥远 在以往提出的方法中,基于度量学习的方法准确度不高,基于深度学习的方法又难以解释,它们都无法很好地解决频繁的特征变化问题本文提出的模型将度量学习的优越性及深度学习强大的学习能力结合起来,可以很好地解决上述提到的各种问题 此模型将成对图像中的父母一方输入网络,对输入的每一个分量映射到高维空间
11、,计算其与RBFN不同中心点的距离,经过非线性变换,将距离进行线性加权求和输出 然后,计算输出图像与子女方图像的均方误差,将损失向后传播,不断优化网络模型 结果表明所提方法在众多方法之中具有显著的优越性1相关工作自亲子关系验证问题提出以来,研究者们提出了许多方法来识别亲子关系,大致可以分为两类:基于度量学习的方法和基于深度学习的方法1.1基于度量学习基于距离度量学习的方法试图寻找一种度量使得具有亲子关系的样本之间距离尽可能地近,而不具有亲子关系的样本之间尽可能地远,其本质是学习亲子图像之间一个或多个马氏距离的非线性组合Lu等3提出了领域驳斥度量学习方法(MNRML)针对距离度量学习方法常常忽略
12、跨代差异的问题,Zhou等4显性地对亲子对之间的跨代差异进行建模,并学习耦合的相似性度量Hu等5提出了一种大间隔多尺度学习方法(L2M3L),该方法联合多个全局距离度量以利用辅助信息Liu等6提出了一种状态感知投影度量学习(SPML)方法,SPML学习两种特定状态的投影,以分别捕捉父母和孩子之间显著的外观共性Wei等7提出了一种对抗式相似性度量学习(ASML)方法,该方法包含两个对抗阶段:混淆和辨别 在混淆阶段,自动生成歧义对以挑战学习到的相似性度量;在辨别阶段,学习到的度量会尽最大努力调整自身,来区分原始对和生成的歧义对 通过迭代执行两个对抗阶段,就可以学习到一个鲁棒性强且具有鉴别力的相似性
13、度量Zhao等8提出了一种新的多核相似性度量Zhou等9提出了一种集成相似性学习(ESL)方法来解决这个具有挑战性的问题1.2基于深度学习由于深度学习在机器视觉领域提取高维特征的优越性,越来越多的方法1012转向了深度学习,基于深度学习的方法将工作重点放在提取更有价值的特征上Lu等13提出了一种判别式深度多尺度学习(DDMML)方法来联合学习多个神经网络以利用公共信息来提高验证性能,该方法协作学习多个神经网络,从而提取出共有的和有区别的信息,使得提取的特征更健壮Chergui等14提出了一个新的亲子验证系统,该系统使用VGG-FACE模型提取成对图像的深度人脸特征,随后将这些特征对转换成单个特
14、征向量,再根据Fisher Score将此特征向量进行排序以选出最佳鉴别特征,最后使用SVM进行最终分类郑亮等15构建了一个人脸局部特征增强验证网络(LFFEV Net)用于获取具有强鉴别力的人脸特征Yan等16使用两个共享参数的卷积神经网络来提取不同尺度的特征,随后将同一尺度的特征集合分成多个组,利用这些不同的组来捕捉不同位置的信息Nandy等17使用深度孪生网络提取亲子对之间的特征Li等18使用两个共享权值的卷积神经网络分别提取亲子的特征,用星形推理网络来推理不同维度上编码的亲子信息 受人类视觉系统从局部和全局角度同时融合低阶和高阶交叉对信息的启发,Huang等19利用高阶交叉对特征,提出
15、了一种新的自适应加权多元组度量网络Serraoui等20针对同时学习人脸特征和亲子特征可能会导致提出的模型太弱的问题,利用四个预训练的网络(VGG-FACE、VGG-F、VGG-M和VGG-S)进行自动亲子关系验证 研究显示2122,借助神经网络强大的特征提取及学习能力,基于深度学习的方法进行亲子关系验证准确率更高2本文的方法2.1基本思想本文使用D=(xi,yj)|i,j=1,2,N来表示数据集中具有亲子关系的成对图像集合,其中xi和yj分别表示父母方图像和子女方图像 当i=j时,表示二者具有亲子关系;当i6=j时,二者为非亲子关系 亲子关系验证的目标可以抽象成学习一个映射函数,而这个函数的
16、输入是成对样本,输出是i=j的概率 大多数现有的方法第4期张鑫坤,等:基于径向基网络的无监督亲子关系验证455意图去学习一个较好的特征提取函数g(),然后再学习一个亲子关系映射函数f(g()以推测特征之间具有亲子关系的概率 本文直接学习亲子关系映射函数f(),将特征以一种自适应的方式进行提取 图1展示了所提算法的整体流程图 1基于RBFN的亲子关系验证流程2.2基于RBFN的分类模型RBFN是一种使用径向基函数作为激活函数的前向神经网络,该网络由三层组成:输入层、隐藏层、线性层 隐藏层使用径向基函数作为隐单元的基,径向基函数是一个取值仅仅依赖离中心点距离的函数,其形式如式(1):(x)=(kx
17、ck)(1)其中:c为任意中心点Sellam等23提出了一个对面部表情变化更具鲁棒性的算法,对于成对的亲子图像,该算法在RGB颜色空间内,将第一幅图像的每一个像素与其对应的第二幅图像的邻近像素计算欧式距离,然后将其邻域范围内的最短距离添加到该对图像的特征矢量中,取得了良好的效果,该结果证明了距离度量在亲子关系验证中的有效性鉴于此,本文使用的RBFN的隐藏层激活函数采用了高斯径向基核函数,其形式如式(2):(x)=exp(kxck2/22)(2)其中:x为输入量,c为任意中心点,为宽度参数,控制了核函数的径向范围式(2)可以进一步化简成如下形式:(x)=exp(kxck2)(3)其中:为扩展系数
18、通过观察与分析径向基函数,发现其具有以下性质:a)该函数的本质是计算输入与中心点的距离,当输入距离中心点越近时,函数值越大,反之函数值越小;b)可以将输入与中心点的距离进行非线性变换;c)如果中心点不止一个,那么可以将输入由低维空间映射到高维空间对于亲子关系验证任务来说,上述三个特性非常重要 本文将输入向量的每一个分量与隐藏层的神经元进行全连接,在进入隐藏层后,径向基函数使得输入分量距离中心点越近,产生的函数值越大,即该神经元的输出值越大,进而在所有的输出和之中占比越大 经过隐藏层的转换,输入的每一个分量就能以自适应的方式分配到离自己最近的中心点Yan等16从不同的面部区域生成不同的特征对取得
19、了良好的效果,说明关注位置信息可以提高利用面部潜在信息的能力 因此将输入分量控制在距离中心点一定的范围内,保留输入的局部位置信息,产生的结果就会准确得多 比如,将中心点设置为瞳孔,输出分量应该主要由眼睛周围的输入分量构成,而不是眉毛或胡须等RBFN的第三层是线性层,负责将隐藏层的输出加权求和,因此线性层的每一个单元都有一个权值,用于控制最终的求和结果 对于每一对图像,将其父母方图像作为输入,经过RBFN的处理得到输出之后,将其与子女方图像计算均方误差,然后使用随机梯度下降法将误差逐渐缩小,并由此确定式(3)中的扩展系数以及线性层中各单元的权值大小456新疆大学学报(自然科学版)(中英文)202
20、3年RBFN的参数通过训练完成之后,将成对图像的一方载入网络中,经过网络处理,将其输出与另一方计算余弦相似度,如果相似度超过阈值t,则被认为具有亲子关系,否则为非亲子关系 本文希望经过RBFN处理后的图像与其待验图像之间的均方误差尽可能地小,因此可以得到如下优化问题,其形式如式(4):argminF=NXp=1kyc ypk2(4)其中:yp为任意成对图像中输入的父母方图像经过RBFN生成的图像,即RBFN隐藏层输出的线性加权和,形式如式(5),yc是成对图像中的另一方,N为样本数 yp=w0+KXm=1HXj=1NXi=1wmexp(kxicijk2)(5)其中:K为权值的个数,H为隐藏层单
21、元的个数,N为输入分量的个数,c为任意中心点为了得到扩展系数以及权值矩阵,使用随机梯度下降法来求解,形式如式(6):wm=wmFw,=F(6)算法1基于RBFN的分类算法输入:数据集D=(xi,yj)|i,j=1,2,N,N对图像输出:是否具有亲子关系a)初始化RBFN的中心点;初始化扩展系数;初始化权重矩阵W及偏置w0b)将xi输入RBFNc)利用式(5)计算RBFN的输出d)利用式(4)计算MSE Losse)利用式(6)更新扩展系数、权重矩阵W及偏置w0f)在训练集中重复步骤b)e)g)确定RBFN的参数h)将测试集xi输入RBFNi)计算RBFN的输出及yj之间的余弦相似度j)比较阈值
22、t完成分类3实 验在数据集KinFaceW24和UB KinFace25上进行了5折交叉验证实验,进一步验证本文所提算法的有效性3.1实验协议公共数据集KinFaceW的创建者及其他研究者在亲子关系验证领域定义了三种实验协议,以期在遵循相同协议的前提下,对各种亲子验证算法进行公平比较1)无监督协议:不能使用亲子标签及其它额外信息,这种协议用来评估聚类及其它无监督学习算法;2)限制性图像协议:定义训练集和测试集,运用5折交叉验证,正样本对和负样本对数量相等;3)非限制性图像协议:在训练集中的图像可以生成额外的负样本对进行训练本文所提的算法基于无监督设定,基本思想也是基于局部聚类,在KinFace
23、W和UB KinFace数据集上没有定义亲子标签,运用5折交叉验证计算平均准确率3.2数据集与预处理KinFaceW数据集由KinFaceW-I和KinFaceW-II两个子集组成 两个子集中的图像均采集自非受控环境,对姿态、亮度、背景、表情、年龄、种族、局部遮蔽等没作限制 不同的是,前者的图像是从不同的图像中得到的,而后者的图像是从同一张图像中得到的,前者含有1 066张图像,后者则有2 000张图像 对数据集中包含的父亲和儿子(FS)、父亲和女儿(FD)、母亲和儿子(MS)、母亲和女儿(MD)四种亲子关系进行了研究UB KinFace是第一个包含子女、年轻父母和年老父母的亲子数据库,由美国
24、东北大学采集,收集了200组亲子的600张图像,每第4期张鑫坤,等:基于径向基网络的无监督亲子关系验证457一组包含子女、年轻父母和年老父母的人脸图像各一张,本文研究了子女与年轻父母(CY)以及子女与年老父母(CO)两种关系 图2展示了KinFaceW-II的部分图像图 2KinFaceW-II的部分图像图像预处理限于UB KinFace,包括图像灰度化和归一化,并根据眼睛坐标将图像对齐并裁剪至6464大小图3展示了预处理的主要步骤:图3(b)将人脸图像根据眼睛坐标进行对齐,图3(c)以双眼之间的距离为一个标准单位(图中黄色线),再以左眼位置向四周伸展,Bekhouche等26将这种裁剪算法命
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 径向 网络 监督 亲子关系 验证
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。