分享
分销 收藏 举报 申诉 / 39
播放页_导航下方通栏广告

类型MATLAB神经网络工具箱及实验要求PPT参考课件.ppt

  • 上传人:精****
  • 文档编号:10239305
  • 上传时间:2025-04-29
  • 格式:PPT
  • 页数:39
  • 大小:821.50KB
  • 下载积分:12 金币
  • 播放页_非在线预览资源立即下载上方广告
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    MATLAB 神经网络 工具箱 实验 要求 PPT 参考 课件
    资源描述:
    单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,MATLAB,神经网络工具箱,介绍及实验要求,1,2025/4/29 周二,神经元模型,Neuron Model,:,多输入,单输出,带偏置,输入,:R,维列向量,权值,:R,维行向量,阈值,:,标量,求和单元,传递函数,输出,常用传递函数,a,W,p,-b,1,-1,阈值函数,MATLAB,函数,:hardlim,MATLAB,函数,:hardlims,线性函数,Purelin Transfer Function,:,a,n,MATLAB,函数,:purelin,Sigmoid,函数,Sigmoid Function,:,特性:,值域,a(0,1),非线性,单调性,无限次可微,|n|,较小时可近似线性函数,|n|,较大时可近似阈值函数,MATLAB,函数,:logsig(,对数,),tansig(,正切,),对数,Sigmoid,函数,正切,Sigmoid,函数,单层神经网络模型,R,维输入,S,个神经元的单层神经网络模型,多层神经网络模型,前馈神经网络,前馈神经网络,(,feed forward NN,),:各神经元接受前级输入,并输出到下一级,无反馈,可用一有向无环图表示。,前馈网络通常分为不同的,层,(,layer,),,第,i,层的输入只与第,i,-1,层的输出联结。,可见层:,输入层,(,input layer,),和,输出层,(,output layer,),隐藏层,(,hidden layer,),:中间层,感知器,(perceptron):,单层前馈网络,传递函数为,阈值函数,主要功能是模式分类,感知器的生成,函数,newp,用来生成一个感知器神经网络,net=newp(pr,s,tf,lf),net:,函数返回参数,表示生成的感知器网络,pr:,一个,R2,矩阵,由,R,维输入向量的每维最小值和最,大值组成,s:,神经元的个数,tf:,感知器的传递函数,默认为,hardlim,可选,hardlims,lf:,感知器的学习函数,默认为,learnp,可选,learnpn,net=newp(-2,+2;-2,+2,2)%,生成一个二维输入,两个神经元的感知器,newp,感知器的权值和阈值初始化,newp,默认权值和阈值为零,(,零初始化函数,initzero).,net=newp(-2,+2;-2,+2,2);,W=net.IW1,1%,显示网络的权值,b=net.b1%,显示网络的阈值,W=,0 0,0 0,b=,0,0,改变默认初始化函数为随机函数,rands,net.inputweights1,1.initFcn=rands;,net.biases1.InitFcn=rands;,net=init(net);%,重新初始化,直接初始化定义权值和阈值,net.IW1,1=1 2;net.b1=1,感知器学习,感知器学习算法,权值增量,:,阈值增量,:,权值更新,:,阈值更新,:,算法改进,输入样本归一化,权值和阈值训练与学习函数,train,net=train(net,P,T),设计好的感知器并不能马上投入使用,.,通过样本训练,确定感知器的权值和阈值,.,输入向量,目标向量,被训练网络,net.trainParam.epochs=10;%,预定的最大训练次数为,10,感知器经过最多训练,10,次后停止,adapt,net=adapt(net,P,T),自适应训练函数,权值和阈值学习函数,learnp,dW=learnp(W,P,Z,N,A,T,E,D,gW,gA,LP,LS),dW:,权值或阈值的增量矩阵,W:,权值矩阵或阈值向量,P:,输入向量,T:,目标向量,E:,误差向量,其他可以忽略,设为,learnpn,归一化学习函数,网络仿真函数,sim,a=sim(net,P),输入向量,网络输出,分类结果显示绘图函数,plotpv,plotpv(P,T),plotpc,plotpc(W,b),画输入向量的图像,画分类线,根据给定的样本输入向量,P,和目标向量,T,以及需分类的向量组,Q,创建一个感知器,对其进行分类,.,例,:,创建一个感知器,P=-0.5-0.6 0.7;0.8 0 0.1;%,已知样本输入向量,T=1 1 0;%,已知样本目标向量,net=newp(-1 1;-1 1,1);%,创建感知器,handle=plotpc(net.iw1,net.b1);%,返回划线的句柄,net.trainParam.epochs=10;%,设置训练最大次数,net=train(net,P,T);%,训练网络,Q=0.6 0.9-0.1;-0.1-0.5 0.5;%,已知待分类向量,Y=sim(net,Q);%,二元分类仿真结果,figure;%,新建图形窗口,plotpv(Q,Y);%,画输入向量,handle=plotpc(net.iw1,net.b1,handle)%,画分类线,实验一 利用感知器进行分类,(1),一个经过训练的感知器对,5,个输入向量进行分类,(2,类,),。,Step 1,两个长度为,5,的向量构成输入样本矩阵,P,,行向量,T,为目标向量。利用,PLOTPV,画出这个向量的图像。例如:,P=-0.5-0.5+0.3-0.1-4;-0.5+0.5-0.5+1.0 5;,T=1 1 0 0 1;,plotpv(P,T);,%,plotpv,函数利用感知器的输入向量和目标向量来画输入向量的图像,Step 2,建立神经网络,画输入向量的图像,MATLAB,提供函数,newp,来创建一个指定的感知器。第一个参数指定了期望的两个输入向量的取值范围,第二个参数指定了只有一个神经元。,net=newp(-40 1;-1 50,1);,注意:这个神经元的传递函数是,hardlim,函数,也就是阶跃函数。取,0,,,1,两个值。,Hardlims,函数,取,-1,,,1,两个值。,实验一 利用感知器进行分类,(2),添加神经元的初始化值到分类图,Step3,初始化的权值被设为,0,,因此任何输入都会给出同样的输出,并且分类线不会出现在这个图中,不用害怕,我们会继续训练这个神经网。,hold on,linehandle=plotpc(net.IW1,net.b1);/plotpc,函数用来画分类线,训练神经网络,Step4,Matlab,提供了,adapt,函数来训练感知器,,adapt,函数返回一个新的能更好的执行分类、网络的输出、和误差的神经网络,这个划线函数允许网络从,3,个角度去调整,画分类线一直到误差为,0,为止。,E=1;/E,为误差,net.adaptParam.passes=3;/,决定在训练过程中重复次数,while(sse(E)/sse,函数是用来判定误差,E,的函数,net,Y,E=adapt(net,P,T);/,利用输入样本调节神经网,net,linehandle=plotpc(net.IW1,net.b1,linehandle);/,画出调整以后的分类线,drawnow;/,延迟一段时间,end,实验一 利用感知器进行分类,(3),Step 5,模拟,sim,sim,函数能被用来划分任何别的输入向量,例如划分一个输入向量,0.7;1.2.,这个新点的图像为红色,他将用来显示这个感知器如何把这个新点从最初的训练集取分开来。,p=0.7;1.2;,a=sim(net,p);/,利用模拟函数,sim,计算出新输入,p,的神经网络的输出,plotpv(p,a);,circle=findobj(gca,type,line);,set(circle,Color,red);,打开,hold,以便于以前的图像不被删除。增加训练装置和分类线在图中。,hold on;plotpv(P,T);plotpc(net.IW1,net.b1);hold off;axis(-2 2-2 2);,这个感知器正确的区分了我们的新点,(,用红色表示,),作为”,zero”,类,(,用圆圈表示,),,而不是”,one”,类,(,用,+,号表示,),,尽管需要比较长的训练时间,这个感知器仍然适当的进行了学习。最后放大感兴趣的区域,BP,网络,多层前馈网络,主要功能,:,函数逼近,模式识别,信息分类,数据压缩,传递函数,:,隐层采用,S,形函数,输出层,S,形函数或线性函数,BP,网络的生成,newff,函数,newff,用来生成一个,BP,网络,net=newff(PR,S1 S2.SN,TF1 TF2.TFN,BTF,BLF,PF),PR:,一个R2矩阵,由R维输入向量的每维最小值和最大值组成,Si:,第,i,层的神经元个数,TFi:,第,i,层的传递函数,默认为,tansig,BTF:,训练函数,默认为,trainlm,BLF:,学习函数,默认为,learngdm,PF:,性能函数,默认为,mse,net=newff(0,10;-1,2,5,1,tansig,purelin,trainlm);,%,生成一个两层,BP,网络,隐层和输出层神经的个数为,5,和,1,传递函数分别为,tansig,和,purelin,训练函数为,trainlm,其他默认,BP,网络的初始化,newff,函数在建立网络对象的同时,自动调用初始化函数,根据缺省的参数对网络的连接权值和阈值,.,使用函数,init,可以对网络进行自定义的初始化,.,通过选择初始化函数,可对各层连接权值和阈值分别进行不同的初始化,.,BP,网络的学习规则,权值和阈值的调节规则采用误差反向传播算法,(back propagation).,反向传播算法分二步进行,即正向传播和反向传播。,1,正向传播,输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。,2,反向传播,反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。,BP,算法实质是求取误差函数的最小值问题。这种算法采用非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数。,BP,网络的快速学习算法与选择,学习算法,适用问题类型,收敛性能,占用存储空间,其他特点,trainlm,函数拟合,收敛快,误差小,大,性能随网络规模增大而变差,trainrp,模式分类,收敛最快,较小,性能随网络训练误差减小而变差,trainscg,函数拟合,模式分类,收敛较快,性能稳定,中等,尤其适用于网络规模较大的情况,trainbfg,函数拟合,收敛较快,较大,计算量岁网络规模的增大呈几何增长,traingdx,模式分类,收敛较慢,较小,适用于提前停止的方法,MATLAB,神经网络工具箱对常规,BP,算法进行改进,提供了一系列快速算法,以满足不同问题的需要,BP,网络的训练,利用已知的,”,输入,目标,”,样本向量数据对网络进行训练,采用,train,函数来完成,.,训练之前,对训练参数进行设置,训练参数,参数含义,默认值,net.trainParam.epochs,训练步数,100,net.trainParam.show,显示训练结果的间隔步数,25,net.trainParam.goal,训练目标误差,0,net.trainParam.time,训练允许时间,INf,net.trainParam.lr,学习率,0.01,net=train(net,P,T),BP,网络的设计,(1),网络层数,已经证明,单隐层的,BP,网络可以实现任意非线性映射,.BP,网络的隐层数一般不超过两层,.,输入层的节点数,输入层接收外部的输入数据,节点数取决于输入向量的维数,输出层的节点数,输出层的节点数取决于输出数据类型和该类型所需的数据大小,.,对于模式分类问题,节点数为,BP,网络的设计,(2),隐层的节点数,隐层的节点数与求解问题的要求,输入输出单元数多少有关,.,对于模式识别,/,分类的节点数可按下列公式设计,传递函数,隐层传递函数采用,S,型函数,输出层采用,S,型函数或线性函数,训练方法及其参数选择,针对不同应用,BP,网络提供了多种训练学习方法,.,其中,为隐层节点数,为输入节点数,为,110,之间的整数,BP,网络设计实例,采用动量梯度下降算法训练,BP,网络,.,训练样本,%,定义训练样本,p=-1-1 3 1;-1 1 5-3;,t=-1-1 1 1;,%,创建一个新的,BP,网络,net=newff(minmax(p),3 1,tansig,purelin,traingdm);,%,设置训练参数,net.trainParam.epochs=1000;,net.trainParam.goal=0.001;,net.trainParam.show=50;,net.trainParam.lr=0.05;,net.trainParam.mc=0.9;%,动量因子,缺省为,0.9,net=train(net,p,t);%,训练网络,A=sim(net,p)%,网络仿真,目标线,训练误差变化曲线,训练误差变化曲线(每次不同),实验,2:BP,网络用于曲线拟合,要求设计一个简单的,BP,网络,实现对非线性函数的逼近。通过改变该函数的参数以及,BP,网络隐层神经元的数目,来观察训练时间以及训练误差的变化情况。,Step1:,将要逼近的非线性函数设为正弦函数,k=1;,p=-1:.05:1;,t=sin(k*pi*p);,plot(p,t,-),title(,要逼近的非线性函数,);,xlabel(,时间,);,ylabel(,非线性函数,);,Step 2:,网络建立,应用函数,newff(),建立,BP,网络结构,为二层,BP,网络。隐层神经元数目,n,可以改变,暂设为,10,,输出层有一个神经元。选择隐层和输出层神经元传递函数分别为,tansig,函数和,purelin,函数,网络训练算法采用,trainlm,n=10;,net=newff(minmax(p),n,1,tansig purelin,trainlm);,%,对于该初始网络,可以应用,sim(),函数观察网络输出,y1=sim(net,p);,%,同时绘制网络输出曲线,并与原函数相比较,figure;,plot(p,t,-,p,y1,-),title(,未训练网络的输出结果,);,xlabel(,时间,);,ylabel(,仿真输出 原函数,);,因为使用,newff(),函数建立网络时,权值和阈值的初始化是随机的,所以网络输出的结果很差,根本达不到函数逼近的目的,并且每次运行结果也有所不同。,Step 3:,网络训练,应用函数,train(),对网络进行训练之前,要先设置训练参数。将训练时间设置为,50,,精度设置为,0.01,,其余用缺省值。,训练后得到的误差变化过程如图:,net.trainParam.epochs=50;,net.trainParam.goal=0.01;,net=train(net,p,t);,Stet 4:,网络测试,对于训练好的网络进行仿真,并绘制网络输出曲线,与原始非线性函数曲线以及未训练网络的输出结果曲线相比较,y2=sim(net,p);,figure;,plot(p,t,-,p,y1,-,p,y2,-.),title(,训练后网络的输出结果,);,xlabel(,时间,);,ylabel(,仿真输出,);,从图中可以看出,得到的曲线和原始的非线性函数曲线很接近。这说明经过训练后,,BP,网络对非线性函数的逼近效果相当好。,讨 论,改变非线性函数的频率,k,值,和,BP,网络隐层神经元的数目,对于函数逼近的效果有一定的影响。,网络非线性程度越高,对于,BP,网络的要求就越高,则相同的网络逼近效果要差一些;隐层神经元的数目对于网络逼近效果出有一定的影响,一般来说,隐层神经元数目越多,则,BP,网络逼近能力越强,而同时网络训练所用的时间相对来说也要长一些。,关于这些,大家可以自己通过参数调整试一试,并在实验报告中有所反映。,思考题,(,1,)设计一,BP,网络逼近函数,(,2,)设计一,BP,网络实现数字或字母的识别,实验要求,完成实验一和实验二,选做思考题(,1,或,2,),用统一封面,上交电子稿时间:,11,月,5,日前,邮箱:,liang_ru_bing,需给出实验得出的相关的结果图;在每幅图的下方,需对该图进行必要的文字解释。,
    展开阅读全文
    提示  咨信网温馨提示:
    1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
    5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

    开通VIP折扣优惠下载文档

    自信AI创作助手
    关于本文
    本文标题:MATLAB神经网络工具箱及实验要求PPT参考课件.ppt
    链接地址:https://www.zixin.com.cn/doc/10239305.html
    页脚通栏广告

    Copyright ©2010-2025   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:0574-28810668    微信客服:咨信网客服    投诉电话:18658249818   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   


    关注我们 :微信公众号  抖音  微博  LOFTER               

    自信网络  |  ZixinNetwork