深度学习的基本理论与方法.ppt
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 基本理论 方法
- 资源描述:
-
,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,目 录,概述,深度学习简介,深度学习的训练过程,深度学习的具体模型及方法,深度学习的应用,总结,展望,参考文献,概 述,2012,年,6,月,,纽约时报,披露了,Google Brain,项目,吸引了公众的广泛关注。这个项目是由著名的斯坦福大学机器学习教授,Andrew Ng,和在大规模计算机系统方面的世界顶尖专家,Jeff Dean,共同主导,用,16000,个,CPU Core,的并行计算平台训练一种称为“深层神经网络”(,DNN,,,Deep Neural Networks,)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。,2012,年,11,月,微软在中国天津的一次活动上公开演示了一个全自动的同声传译系统,讲演者用英文演讲,后台的计算机一气呵成自动完成语音识别、英中机器翻译,以及中文语音合成,效果非常流畅。据报道,后面支撑的关键技术也是,DNN,,或者深度学习(,DL,,,Deep Learning,)。,2013,年,1,月,在百度的年会上,创始人兼,CEO,李彦宏高调宣布要成立百度研究院,其中第一个重点方向就是深度学习,并为此而成立,Institute of Deep Learning,(,IDL,)。这是百度成立十多年以来第一次成立研究院。,2013,年,4,月,,麻省理工学院技术评论,杂志将深度学习列为,2013,年十大突破性技术(,Breakthrough Technology,)之首。,百度首席科学家吴恩达,2014,年,12,月,19,日表示,百度在深度学习领域的发展已经超过了谷歌与苹果,如果这项技术真具有划时代的革命意义,那么百度就此开启并且引领了语音,2.0,时代,也即是人工智能时代的一个重要分支,改变搜索,更改变交互。,概 述,深度学习:一种基于无监督特征学习和特征层次结构的学习方法,可能的的名称:,深度学习,特征学习,无监督特征学习,神经网络,神经网络的局限性,:,1,)比较容易过拟合,参数比较难调整,而且需要不少技巧;,2,)训练速度比较慢,在层次比较少(小于等于,3,)的情况下效果并不比其它方法更优;,深度学习,2006,年,加拿大多伦多大学教授、机器学习领域的泰斗,Geoffrey Hinton,在,科学,上发表论文提出深度学习主要观点:,1,)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;,2,)深度神经网络在训练上的难度,可以通过“逐层初始化”(,layer-wise pre-training,)来有效克服,逐层初始化可通过无监督学习实现的。,采用逐层训练机制的原因在于如果采用,BP,机制,对于一个,deep network,(,7,层以上),残差传播到最前面的层将变得很小,出现所谓的,gradient diffusion,(梯度扩散)。,深度学习,本质:,通过构建多隐层的模型和海量训练数据(可为无标签数据),来学习更有用的特征,从而最终提升分类或预测的准确性。“深度模型”是手段,“特征学习”是目的。,与浅层学习区别:,1,)强调了模型结构的深度,通常有,5-10,多层的隐层节点;,2,)明确突出了特征学习的重要性,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。,深度学习,好处:可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示。,深度学习训练过程,不采用,BP,算法的原因,(,1,)反馈调整时,梯度越来越稀疏,从顶层越往下,误差校正信号越来越小;,(,2,)收敛易至局部最小,由于是采用随机值初始化,当初值是远离最优区域时易导致这一情况;,(,3,),BP,算法需要有标签数据来训练,但大部分数据是无标签的;,深度学习训练过程,第一步:采用自下而上的无监督学习,1,)逐层构建单层神经元。,2,)每层采用,wake-sleep,算法进行调优。每次仅调整一层,逐层调整。,这个过程可以看作是一个,feature learning,的过程,是和传统神经网络区别最大的部分。,深度学习训练过程,wake-sleep,算法,:,1,),wake,阶段:,认知过程,通过下层的输入特征(,Input,)和向上的认知(,Encoder,)权重产生每一层的抽象表示(,Code,),再通过当前的生成(,Decoder,)权重产生一个重建信息(,Reconstruction,),计算输入特征和重建信息残差,使用梯度下降修改层间的下行生成(,Decoder,)权重。也就是“如果现实跟我想象的不一样,改变我的生成权重使得我想象的东西变得与现实一样”。,2,),sleep,阶段:,生成过程,通过上层概念(,Code,)和向下的生成(,Decoder,)权重,生成下层的状态,再利用认知(,Encoder,)权重产生一个抽象景象。利用初始上层概念和新建抽象景象的残差,利用梯度下降修改层间向上的认知(,Encoder,)权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念”。,深度学习训练过程,Encoder,Decoder,Input Image,Class label,.,Features,Encoder,Decoder,Features,Encoder,Decoder,深度学习训练过程,第二步:自顶向下的监督学习,这一步是在第一步学习获得各层参数进的基础上,在最顶的编码层添加一个分类器(例如罗杰斯特回归、,SVM,等),而后通过带标签数据的监督学习,利用梯度下降法去微调整个网络参数。,深度学习的第一步实质上是一个网络参数初始化过程。区别于传统神经网络初值随机初始化,深度学习模型是通过无监督学习输入数据的结构得到的,因而这个初值更接近全局最优,从而能够取得更好的效果。,深度学习的具体模型及方法,自动编码器(,AutoEncoder,),稀疏自动编码器,(Sparse AutoEncoder),降噪自动编码器,(Denoising AutoEncoders),深度置信网络(,Deep Belief Networks DBN,),卷积神经网络(,CNNs,),深度学习的具体模型及方法,自动编码器(,AutoEncoder,),这个,AutoEncoder,还不能用来分类数据,因为它还没有学习如何去连结一个输入和一个类。它只是学会了如何去重构或者复现它的输入而已。在,AutoEncoder,的最顶的编码层添加一个分类器(例如罗杰斯特回归、,SVM,等),然后通过标准的多层神经网络的监督训练方法(梯度下降法)去训练。我们需要将最后层的特征,code,输入到最后的分类器,通过有标签样本,通过监督学习进行微调,这也分两种,深度学习的具体模型及方法,自动编码器(,AutoEncoder,),只调整分类器(黑色部分),通过有标签样本,微调整个系统:(如果有足够多的数据,这个是最好的。,end-to-end learning,端对端学习),在研究中可以发现,如果在原有的特征中加入这些自动学习得到的特征可以大大提高精确度,甚至在分类问题中比目前最好的分类算法效果还要好!,深度学习的具体模型及方法,稀疏自动编码器,(Sparse AutoEncoder),在,AutoEncoder,的基础上加上,L1,的,Regularity,限制(,L1,主要是约束每一层中的节点中大部分都要为,0,,只有少数不为,0,,这就是,Sparse,名字的来源),在计算机视觉中,稀疏性的约束是使得学习到的表达更有意义的一种重要约束;,深度学习中要优化的参数非常多,如果不加入稀疏性的约束往往会使得学习到的权重矩阵为单位矩阵,这样就失去了深度的意义,深度学习的具体模型及方法,降噪自动编码器,(Denoising AutoEncoders),在自动编码器的基础上,对训练数据加入噪声,自动编码器必须学习去去除这种噪声而获得真正的没有被噪声污染过的输入。因此,这就迫使编码器去学习输入信号的更加鲁棒的表达,这也是它的泛化能力比一般编码器强的原因。,深度学习的具体模型及方法,限制波尔兹曼机(,Restricted Boltzmann Machine,),玻尔兹曼机,(Boltzmann machine),本质上是一种能量模型。限制条件是在给定可见层或者隐层中的其中一层后,另一层的单元彼此独立。,定义:,假设有一个二部图,同层节点之间没有链接,一层是可视层,即输入数据层(,v),,一层是隐藏层,(h),,如果假设所有的节点都是随机二值(,0,,,1,值)变量节点,同时假设全概率分布,p(v,h),满足,Boltzmann,分布,我们称这个模型,Restricted BoltzmannMachine(RBM),。,深度学习的具体模型及方法,限制波尔兹曼机(,Restricted Boltzmann Machine,),输入,v,的时候,通过,p(h|v),可以得到隐藏层,h,,而得到隐藏层,h,之后,通过,p(v|h),又能得到可视层,通过调整参数,我们就是要使得从隐藏层得到的可视层,v1,与原来的可视层,v,如果一样,那么得到的隐藏层就是可视层另外一种表达,因此隐藏层可以作为可视层输入数据的特征,用近似极大似然随机梯度下降算法训练,BM,,通常用蒙特卡罗马尔可夫链,(Monte-Carlo Markov chain,,,MCMC),方法来得到模型样例,限制波尔兹曼机(,RBM,)是一种深度学习模型。,深度学习的具体模型及方法,深度置信网络(,Deep Belief Networks,),-DBN,Deep Belief Networks,是在靠近可视层的部分使用贝叶斯信念网络(即有向图模型),而在最远离可视层的部分使用,Restricted Boltzmann Machine,的模型。,深度学习的具体模型及方法,卷积波尔兹曼机(,Convolutional RBM,),CRBM,是为识别二维图像信息而特殊设计的一个多层感知器。,卷积限制玻尔兹曼机的基本思想是使用卷积的方式使得图像各个像素共享一组滤波器,滤波器卷积(权重矩阵、偏置顶共享),特点:特征提取是不用考虑局部特征位置;减少了要学习的参数数量,最大池采样:对图像进行分块,取每一块的最大(或平均值),实现了平移不变性,深度学习的具体模型及方法,卷积神经网络(,Convolutional Neural Networks,),CNNs,CNN,的优点:,1,、避免了显式的特征抽取,而隐式地从训练数据中进行学习;,2,、同一特征映射面上的神经元权值相同,从而网络可以并行学习,降低了网络的复杂性;,3,、采用时间或者空间的子采样结构,可以获得某种程度的位移、尺度、形变鲁棒性;,3,、输入信息和网络拓扑结构能很好的吻合,在语音识别和图像处理方面有着独特,优势,成为这两方面的研究热点。,卷积限制玻尔兹曼机逐层叠加,就得到卷积神经网络,深度学习的应用,语音识别,语音识别系统长期以来,在描述每个建模单元的统计概率模型时,大多采用的是混合高斯模型(,GMM,)。,微软研究院语音识别专家邓立和俞栋从,2009,年开始和深度学习专家,Geoffery Hinton,合作。,2011,年微软宣布基于深度神经网络的识别系统取得成果并推出产品,彻底改变了语音识别原有的技术框架。,百度在实践中发现,采用,DNN,进行声音建模的语音识别系统相比于传统的,GMM,语音识别系统而言,相对误识别率能降低,25%,。最终在,2012,年,11,月,百度上线了第一款基于,DNN,的语音搜索系统,成为最早采用,DNN,技术进行商业语音服务的公司之一。,Google,也采用了深层神经网络进行声音建模,是最早突破深层神经网络工业化应用的企业之一。,深度学习的应用,图像识别,图像是深度学习最早尝试的应用领域。早在,1989,年,,Yann LeCun(,现纽约大学教授,),和他的同事们就发表了卷积神经网络(,Convolution Neural Networks,,简称,CNN,)的工作。但是在大规模的图像上效果不好所以没有得到计算机视觉领域的足够重视。,直到,2012,年,10,月,Geoffrey Hinton,和他的两个学生在著名的,ImageNet,问题上用更深的,CNN,取得世界最好结果,使得图像识别大踏步前进。在,Hinton,的模型里,输入就是图像的像素,没有用到任何的人工特征。,百度在,2012,年底将深度学习技术成功应用于自然图像,OCR,识别和人脸识别等问题,并推出相应的桌面和移动搜索产品,,2013,年,深度学习模型被成功应用于一般图片的识别和理解。,深度学习的应用,深度学习在图像识别上的应用,空间金字塔(,Spatial Pyramids,),深度学习的应用,深度学习在图像识别上的应用,总结,深度学习是关于自动学习要建模的数据的潜在(隐含)分布的多层(复杂)表达的算法。换句话来说,深度学习算法自动的提取分类需要的低层次或者高层次特征。高层次特征,一是指该特征可以分级(层次)地依赖其他特征,例如:对于机器视觉,深度学习算法从原始图像去学习得到它的一个低层次表达,例如边缘检测器,小波滤波器等,然后在这些低层次表达的基础上再建立表达,例如这些低层次表达的线性或者非线性组合,然后重复这个过程,最后得到一个高层次的表达。,Deep learning,能够得到更好地表示数据的,feature,,同时由于模型的层次、参数很多,,capacity,足够,因此,模型有能力表示大规模数据,所以对于图像、语音这种特征不明显(需要手工设计且很多没有直观物理含义)的问题,能够在大规模训练数据上取得更好的效果。此外,从模式识别特征和分类器的角度,,deep learning,框架将,feature,和分类器结合到一个框架中,用数据去学习,feature,,在使用中减少了手工设计,feature,的巨大工作量(这是目前工业界工程师付出努力最多的方面),因此,不仅仅效果可以更好,而且,使用起来也有很多方便之处,总结,目前的关注点还是从机器学习的领域借鉴一些可以在深度学习使用的方法,特别是降维领域。,稀疏编码:通过压缩感知理论对高维数据进行降维,使得非常少的元素的向量就可以精确的代表原来的高维信号。,半监督流行学习:通过测量训练样本的相似性,将高维数据的这种相似性投影到低维空间。,evolutionary programming approaches,(遗传编程方法):它可以通过最小化工程能量去进行概念性自适应学习和改变核心架构。,展 望,未来需解决的问题:,对于一个特定的框架,多少维的输入它可以表现得较优?,对捕捉短时或者长时间的时间依赖,哪种架构才是有效的?,如何对于一个给定的深度学习架构,融合多种感知的信息?,如何分辨和利用学习获得的中、高层特征语义知识?,有什么正确的机理可以去增强一个给定的深度学习架构,以改进其鲁棒性和对变形及数据丢失的不变性?,模型方面是否有其他更为有效且有理论依据的深度模型学习算法?,是否存在更有效的可并行训练算法?,参考文献,Zouxy,博客专栏,Deep Learning,网址:,陈权崎,章毓晋,.,深度学习及其在目标和行为识别中的新进展,J,.,中国图象图形学报,,2014,,,19(2):175-184.,许可,卷积神经网络在图像识别上的应用,浙江,:,浙江大学,,,2012,Rachel Zhang,博客,网址:,展开阅读全文
咨信网温馨提示:1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。




深度学习的基本理论与方法.ppt



实名认证













自信AI助手
















微信客服
客服QQ
发送邮件
意见反馈



链接地址:https://www.zixin.com.cn/doc/12443964.html