基于变分自编码器的人脸表情识别.pdf
《基于变分自编码器的人脸表情识别.pdf》由会员分享,可在线阅读,更多相关《基于变分自编码器的人脸表情识别.pdf(6页珍藏版)》请在咨信网上搜索。
1、第 卷第 期计算机应用与软件 年 月 基于变分自编码器的人脸表情识别党宏社王淼 陆馨蕊王汝明(陕西科技大学电气与控制工程学院陕西 西安 )(潍坊英轩实业有限公司山东 潍坊 )收稿日期:。陕西省自然科学基金项目()。党宏社,教授,主研领域:图像处理,计算机控制,工业过程与优化。王淼,硕士生。陆馨蕊,硕士生。王汝明,工程师。摘要为了在样本量较小的表情数据集上实现较高准确率的表情识别,将无监督特征学习应用于表情识别中,在传统自编码器网络的基础上,将变分自编码器引入人脸表情识别中,提出一种基于变分自编码器改进的人脸表情识别方法,使用大量无表情标签的人脸数据集对变分自编码器进行无监督训练,将变分自编码器
2、中编码网络部分输出的低维特征输入到卷积神经网络中,由变分自编码器的编码网络和卷积神经网络两部分构成完整的表情识别网络;使用带表情标签的人脸表情数据集对网络进行训练。在 、数据库进行分类实验,实验结果表明,该算法具有一定的表情识别能力。关键词计算机表情识别变分自编码器无监督卷积神经网络中图分类号 文献标志码 :(,)(,),引言人脸表情是人类交流过程中表达情感最自然、最直观的方式之一,且 的有用信息是通过表情来传达的 。因此,近年来人脸表情逐渐成为图像处理领域研究的热门,在教育、陪伴机器人、侦察、医疗等领域具有广泛的应用价值和深远的研究意义。传统的人脸表情识别方法主要是在人为手动提取特征的基础上
3、,再使用支持向量机()进行表情分类。如 ()、梯度方向直方图()等,但这种手工特征的表示能力较差,且光照、性别、个体差异及人为干扰等因素对其影响较大 。目前深度学习在许多领域取得了较好的结果,并在某些任务中超越了传统方法。所以研究者开始将深度学习应用于表情识别中 。基于深度学习的方法第 期党宏社,等:基于变分自编码器的人脸表情识别 可以自动学习到人脸图像中复杂的特征描述,具有较强的鲁棒性且可以避免人为手工提取特征造成的误差,使得深度学习成为人脸表情识别领域的研究热潮。但有监督学习需要大量的带标签样本进行网络训练以保证模型的效果,无法直接在数据量较小的样本中得到较好的结果,然而在实际中,利用人工
4、标记大量表情数据是非常费时耗力的事情。在面对海量无标记的数据时,无监督的特征学习正逐渐成为研究的新热点 。文献 将生成对抗网络()应用于人脸表情识别中。文献 在表情识别中使用了去噪自编码器、稀疏自编码器、自编码器构成了 层的堆栈混合式自编码器。受文献 的启发,本文在传统自编码器网络的基础上,将卷积变分自编码器引入人脸表情识别中,提出一种基于卷积变分自编码器的人脸表情识别方法,首先利用卷积神经网络构建卷积变分自编码器。然后利用人脸识别领域中大量的无标签的人脸样本作为特征学习所需的数据,对卷积变分自编码器进行无监督训练;然后将变分自编码器中编码网络部分输出的低维特征输入到卷积神经网络中,构成表情识
5、别网络;最后使用表情数据集对表情识别网络进行有监督训练,得到训练好的完整的表情识别网络。表情识别算法设计 整体框架假设输入的原始人脸数据集 ,需要经过变分自编码器得到原始人脸图像的重构人脸数据集 ,原始人脸数据集 经过编码网络后均值向量 和标准差向量 ,经过重参数技巧后得到隐变量 ,隐变量 中包含 的特征信息。图 为本文人脸表情识别算法的整体框架,系统分为 部分:()变分自编码网络的无监督训练:使用卷积神经网络设计一种合适的变分自编码器,先使用无表情标签的 人脸数据集无监督训练变分自编码网络。()表情识别网络的设计:利用预训练好的变分自编码器的编码网络和卷积神经网络构成表情识别网络。将经过变分
6、自编码器中编码网络输出的低维特征(即隐变量 )作为卷积网络的输入,经过卷积网络后得到分类结果。()表情识别网络的有监督训练:使用带标签的人脸表情数据集训练卷积网络和分类层,通过反向传播调整表情识别网络的网络权重,以达到更好的表情分类效果。图 基于变分自编码器的人脸表情识别系统框架 算法流程表情识别主要分为表情特征提取和特征分类两步,而表情特征提取作为表情识别的关键步骤,直接影响着识别结果的好坏,为了提高表情特征提取能力,本文采用变分自编码器的思想,通过变分自编码器中解码网络不断重构编码网络输出的隐变量,使得重构图像尽可能地接近输入的原始图像,从而提高特征提取能力。()无监督训练变分自编码器:在
7、对变分自编码器进行无监督训练阶段,使用无表情标签的 人脸数据集作为网络输入,通过变分自编码器将输入的高维数据映射为均值向量 和标准差向量 ,利用重参数技巧 ,(,)得到隐变量特征 ,再利用解码器将低维隐特征变量 还原成高维特征得到重构的人脸图像,通过不断地优化原始人脸图像和重构的人脸图像之间的误差,使重构的人脸图像尽可能地还原原始人脸图像,从而保障隐变量 中包含的原始人脸特征信息通过解码网络后能尽可能还原出原始人脸图像。利用变分自编码器的无监督特征学习过程为表情识别网络提供良好的初始参数,从而达到提高网络的特征提取能力的目的。()有监督训练卷积网络:使用带表情标签的人脸表情数据经过编码器得到的
8、低维特征和表情标签对卷积网络部分进行有监督训练,通过反向传播算法调整网络权重,最终得到训练好的表情识别网络。()人脸表情图像分类:输入表情数据集的测试数据,使用已经训练好的完整的表情识别网络进行表情分类识别。网络设计本文提出一种基于 的表情识别方法,该方法是在 的基础上设计一种新的表情识别网络,该表情识别网络由变分自编码器中的编码网络和卷积神经网络两部分组成。计算机应用与软件 年变分自编码器()是 等 提出的,是采用两个神经网络建立了两个模型,分别是 和 。本文设计的变分自编码器的网络结构如图 所示,其中:、分别表示输入输出图像的高、宽、通道数;表示卷积核的大小;、分别表示步长及填充。变分自编
9、码器的编码网络的输入是 大小的人脸图像,自编码器中有 个卷积核大小为 、步长为 、边界填充 的卷积层,其中每个卷积层后均采用批量归一化()和 激活函数;卷积层后连接两个全连接层,第一个全连接层有 个神经元,第二个全连接层输出通过重参数技巧得到的 维隐变量。为了能够还原出 大小的人脸图像,解码网络中先连接一个具有 个神经元的全连接层,然后是 个与卷积操作作用相反的卷积核大小是为 、步长为 的反卷积层组成,每个反卷积层后采用 和激活函数 。当输入为 大小的人脸图像经过编码网络后得到均值向量 和标准差向量 ,经过重参数技巧后得到 维的隐变量特征 ,然后再经过解码网络还原出 大小的人脸图像。图 网络结
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 编码器 表情 识别
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。