国科大中科院人工智能与机器学习12-DL.ppt
《国科大中科院人工智能与机器学习12-DL.ppt》由会员分享,可在线阅读,更多相关《国科大中科院人工智能与机器学习12-DL.ppt(61页珍藏版)》请在咨信网上搜索。
1、深度深度学习:快速推进中的学习:快速推进中的机器学习与人工智能前沿机器学习与人工智能前沿山世光中科院计算所Institute of Computing Technology,Chinese Academy of Sciences提纲提纲n深度学习(DL)及其应用前沿nDL在CV领域应用的启示n关键算法介绍Perceptron及学习算法MLP及其BP算法Auto-EncoderCNN及其主要变种n关于DL的思考与讨论2Institute of Computing Technology,Chinese Academy of Sciences机器学习的基本任务机器学习的基本任务3Classlabel
2、(Classification)Vector(Estimation)dog,cat,horse,ObjectrecognitionSuperresolutionLow-resolutionimageHigh-resolutionimageInstitute of Computing Technology,Chinese Academy of Sciences源起源起生物神经系统的启示生物神经系统的启示n神经元之间通过突触(synapse)连接层级感受野,学习使突触连接增强或变弱甚至消失4Hubel,D.H.&Wiesel,T.N.(1962)Institute of Computing Tec
3、hnology,Chinese Academy of Sciences第一代神经网络第一代神经网络5FrankRosenblatt(1957),ThePerceptron-aperceivingandrecognizingautomaton.Report85-460-1,CornellAeronauticalLaboratory.Institute of Computing Technology,Chinese Academy of Sciences第一代神经网络第一代神经网络n单层感知机(Perceptrons)模型的局限性Minsky&Papert的专著Perceptron(1969)只能
4、对线性可分的模式进行分类解决不了异或问题几乎宣判了这类模型的死刑,导致了随后多年NN研究的低潮6Institute of Computing Technology,Chinese Academy of Sciences2nd Generation Neural Networksn多层感知机(Multi-layerPerceptron,MLP)超过1层的hiddenlayers(正确输出未知的层)nBP算法算法 Rumelhartet al.,1986Compute error signal;Then,back-propagateerrorsignaltogetderivatives for l
5、earning7DavidE.Rumelhart,GeoffreyE.Hinton,andRonaldJ.Williams.(Oct.1986).Learningrepresentationsbyback-propagatingerrors.Nature323(6088):53353612312Institute of Computing Technology,Chinese Academy of SciencesError BackpropagationnWistheparameterofthenetwork;JistheobjectivefunctionFeedforwardoperati
6、onBackerrorpropagationDavidE.Rumelhart,GeoffreyE.Hinton,andRonaldJ.Williams.(Oct.1986).Learningrepresentationsbyback-propagatingerrors.Nature323(6088):533536OutputlayerHiddenlayersInputlayerTargetvaluesInstitute of Computing Technology,Chinese Academy of Sciences2nd Generation Neural Networksn理论上理论上
7、多层好多层好两层权重即可逼近任何连续函数映射两层权重即可逼近任何连续函数映射n遗憾的是,训练困难遗憾的是,训练困难ItrequireslabeledtrainingdatanAlmostalldataisunlabeled.ThelearningtimedoesnotscalewellnItisveryslowinnetworkswithmultiplehiddenlayers.ItcangetstuckinpoorlocaloptimanTheseareoftenquitegood,butfordeepnetstheyarefarfromoptimal.9Institute of Compu
8、ting Technology,Chinese Academy of Sciences1990-2006更流行更流行nSpecificmethodsforspecifictasksHand-craftedfeatures(SIFT,LBP,HOG)MLmethodsnSVMKerneltricksnBoostingAdaBoostnkNNnDecisiontree10Kruger et al.TPAMI13Institute of Computing Technology,Chinese Academy of SciencesA Breakthrough Back to 2006n2006年,
9、通过分层的、无监督预训练,终于获得了训练深层网络结构的能力11Institute of Computing Technology,Chinese Academy of SciencesA Breakthrough Back to 2006nHinton,G.E.,Osindero,S.andTeh,Y.,Afastlearningalgorithmfordeep belief nets.NeuralComputation18:1527-1554,2006nHinton,G.E.andSalakhutdinov,R.R.(2006)Reducing the dimensionality ofda
10、tawithneuralnetworks.Science,Vol.313.no.5786,pp.504-507,28July2006nYoshua Bengio,PascalLamblin,DanPopoviciandHugoLarochelle,GreedyLayer-Wise Training of Deep Networks,AdvancesinNeuralInformationProcessingSystems19(NIPS2006)nMarcAurelioRanzato,ChristopherPoultney,SumitChopraandYann LeCun.Efficient Le
11、arning of Sparse Representations withanEnergy-BasedModel,AdvancesinNeuralInformationProcessingSystems(NIPS2006)12Institute of Computing Technology,Chinese Academy of Sciences其实是有例外的其实是有例外的CNNn卷积神经网络CNNK.Fukushima,“Neocognitron:Aself-organizingneuralnetworkmodelforamechanismofpatternrecognitionunaffe
12、ctedbyshiftinposition,”Biological Cybernetics,vol.36,pp.193202,1980Y.LeCun,B.Boser,J.S.Denker,D.Henderson,R.E.Howard,W.Hubbard,andL.D.Jackel,“Backpropagationappliedtohandwrittenzipcoderecognition,”NeuralComputation,vol.1,no.4,pp.541551,1989Y.Le Cun,L.Bottou,Y.Bengio,andP.Haffner,“Gradient-basedlearn
13、ingappliedtodocumentrecognition,”ProceedingsoftheIEEE,vol.86,no.11,pp.22782324,199813Institute of Computing Technology,Chinese Academy of Sciences其实是有例外的其实是有例外的CNNnNeocognitron 198014K.Fukushima,“Neocognitron:Aself-organizingneuralnetworkmodelforamechanismofpatternrecognitionunaffectedbyshiftinposit
14、ion,”Biological Cybernetics,vol.36,pp.193202,1980LocalConnectionInstitute of Computing Technology,Chinese Academy of Sciences例外:例外:CNN用于数字识别用于数字识别15Institute of Computing Technology,Chinese Academy of Sciences例外例外:CNN用于目标检测与识别用于目标检测与识别16Institute of Computing Technology,Chinese Academy of Sciences而且
15、,东风同样重要而且,东风同样重要n大数据n大数据n大数据语音图像视频n计算能力并行计算平台GPU大量部署n开放的社区开源,开放数据17Institute of Computing Technology,Chinese Academy of Sciences语音识别语音识别(2011)1819862006DBNScienceSpeech2011BPInstitute of Computing Technology,Chinese Academy of Sciences2012年计算机视觉的巨大进步年计算机视觉的巨大进步nImageNet物体分类任务上物体分类任务:1000类,1,431,167幅
16、图像1919862006DBNScienceSpeech2011 2012RankNameError rates(TOP5)Description1U.Toronto0.153Deeplearning2U.Tokyo0.261Hand-craftedfeaturesandlearningmodels.Bottleneck.3U.Oxford0.2704Xerox/INRIA0.271BPInstitute of Computing Technology,Chinese Academy of SciencesImageNet with Deep CNNn方法:大规模CNN网络20A.Krizhe
17、vsky,L.Sutskever,andG.E.Hinton,“ImageNetClassificationwithDeepConvolutionalNeuralNetworks,”NIPS,2012.Institute of Computing Technology,Chinese Academy of SciencesImageNet with Deep CNNn方法:大规模CNN网络650K神经元,60M参数TrainedwithBPonGPU使用了各种技巧+dropoutnReLU,Dataaugment,contrastnormalization,.n被Google收编(Jan201
18、3)Google+PhotoTagging(2013.5)21A.Krizhevsky,L.Sutskever,andG.E.Hinton,“ImageNetClassificationwithDeepConvolutionalNeuralNetworks,”NIPS,2012.Institute of Computing Technology,Chinese Academy of SciencesImageNet物体分类物体分类(2013)n1000类,1,431,167幅图像,Top5错误率2219862006DBNScienceSpeech2011 2012RankNameError r
19、ates(TOP5)Description1NYU0.11197Deeplearning2NUS0.12535Deeplearning3Oxford0.13555Deeplearning2013BPInstitute of Computing Technology,Chinese Academy of SciencesMIT Tech Review坐不住了坐不住了23Institute of Computing Technology,Chinese Academy of SciencesImageNet物体分类物体分类(2014)n1000类,1,431,167幅图像,Top5错误率24198
20、62006DBNScienceSpeech2011 2012RankNameError rates(TOP5)Description1Google0.06656Deeplearning2Oxford0.07325Deeplearning3MSRA0.08062Deeplearning2013 2014BPInstitute of Computing Technology,Chinese Academy of SciencesImageNet物体分类物体分类(2014)nGoogLeNetCVPR201522个卷积层SzegedyC,LiuW,JiaY,etal.Goingdeeperwithc
21、onvolutions.CVPR20152519862006DBNScienceSpeech2011 2012BP20142013Institute of Computing Technology,Chinese Academy of SciencesImageNet物体分类物体分类(2010-2014)nImageNet Top 5 Error Rate上的持续进步2619862006DBNScienceSpeech2011 2012BP20142013Institute of Computing Technology,Chinese Academy of SciencesImageNet物
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 完整版 国科大 中科院 人工智能 机器 学习 12 DL
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【1587****927】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【1587****927】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。