基于前馈型神经网络解变系数分数阶积分微分方程.pdf
《基于前馈型神经网络解变系数分数阶积分微分方程.pdf》由会员分享,可在线阅读,更多相关《基于前馈型神经网络解变系数分数阶积分微分方程.pdf(7页珍藏版)》请在咨信网上搜索。
1、第43卷第3期2023年5月DOI:10.13954/ki.hdu.2023.03.011杭州电子科技大学学报(自然科学版)Journal of Hangzhou Dianzi University(Natural Sciences)Vol.43 No.3May 2023基于前馈型神经网络解变系数分数阶积分微分方程杨刘盼,郭安祺,邵新平(杭州电子科技大学理学院,浙江杭州310 0 18)摘要:为了研究变系数分数阶积分微分方程的数值解,提出了一种基于Bernstein多项式的前馈型神经网络求解变系数分数阶Fredholm积分微分方程的方法。首先,根据Caputo分数阶导数的定义,将变系数分数阶的
2、积分微分方程转化为Bernstein多项式空间上的矩阵形式;然后,将Bernstein多项式的系数作为权重,构造前馈型神经网络,采用梯度下降法对权重进行学习,从而得到近似解;接着,从理论上证明了该前馈型神经网络的收敛性;最后,通过数值实例分析验证了提出方法的有效性。关键词:Bernstein多项式;神经网络;分数阶积分微分;变系数中图分类号:0 2 4文献标志码:A文章编号:10 0 1-9146(2 0 2 3)0 3-0 0 7 6-0 70 引 言分数阶积分微分方程是众多物理现象的建模工具。但是,大多数情况下,求分数阶积分微分方程解析解非常困难。现阶段,对分数阶Volterra-Fred
3、holm积分微分方程和分数阶Fredholm积分微分方程的数值解法主要有同伦分析法1、改进的Laplace分解法2、Adomian分解法3、Legendre多项式近似法41等,这些方法的主要特点是将求解分数阶Volterra-Fredholm积分微分方程和分数阶Fredholm积分微分方程归结为求解一个代数方程,大大降低了求解难度。此外,Bernstein多项式在数学的各个领域扮演着重要角色,在微积分方程和近似解中都会使用Bernstein多项式5-7。相较于Legendre 多项式、Chebyshev多项式和Laguerre多项式等,Bernstein多项式构造简单,且拥有成熟的逼近估计阶理
4、论。随着神经网络研究的不断发展,计算技术的不断提高,基函数神经网络的逼近功能成为求解微积分方程数值解的热门算法之一。Jafarian等9提出一种基于神经网络和幂级数相结合的方法用于求解分数阶Fredholm积分微分方程,具有较高的计算精度;李娜等10 I 提出一种基于函数逼近的Chebyshev神经网络求解非线性Fredholm积分方程的方法,与现有算法比较,Chebyshev神经网络误差稳定,更有效地逼近精确解。与数值求解方法相比,神经网络具有良好的泛化能力和较高的计算精度。本文提出一种基于Bernstein多项式的前馈型神经网络求解变系数分数Fredholm积分微分方程的新方法,将Bern
5、stein多项式的系数作为权重,构造前馈型神经网络,采用梯度下降法学习权重,得到近似解。1预备知识本文求解的变系数分数阶Fredholm积分微分方程如下:2a.(a)Du(s)-fk(a,1)u()dl=g(a)(1)i=0式中,初值条件u(0)=bj,j=0,1,2,r1,r-10,k(,t)为区域0,收稿日期:2 0 2 2-0 3-2 5基金项目:国家自然科学基金资助项目(117 0 1133)作者简介:杨刘盼(1996 一),女,研究方向:积分微分方程的数值解。E-mail:。通信作者:邵新平,副教授。研究方向:微积分方程数值解、并行计算。E-mail:。第3期t0,NE N+,nN时
6、,|B,(f,a)-f(r)0,有DB(r(+1-)式中,N。=0,1,2,),N=(1,2,3,),表示大于的最小整数,表示小于的最大整数。C为常数时,DC=0。更多性质可参考文献12。2分数阶微积分的Bernstein多项式矩阵运算对于变系数的分数阶Fredholm积分微分方程a()Du()+b()DPu()=k(c,t)u(t)dt+g()任意函数u()ECo,1,都可用Bernstein多项式近似为:u(r)B,(u;z)=ZCha(1-a)-u,(k/n)则式(5)表示为:a()Dak=0k(,t)2cht(1-t)-u,(k/n)d+g(a)u(k/n)(a()D-C2*(1-2)
7、*+b(r)DCr*(1-)*-k=0k(,t)Cht*(1-t)-/dt)=g()对式(7)的微分部分DC(1一)和DC(1一),由二项式定理(1-)-k=2C-1-k-(1)2可得:Ca(1-)-k=DCh(1-)-k=Dr杨刘盼,等:基于前馈型神经网络解变系数分数阶积分微分方程B,(f;)=Cha*(1-)f(k/n)k=0为二项式系数。Bernstein多项式是逼近连续函数的一系列多项式。若f()是0,1df()d.c1T(+1)k=0Chak(1-)ku,(k/n)+b()De77(2)=nE N(3)(t)0n1k0n-k2CC1-(1)2*+4q=02C,C1-(-1)a+一k(
8、4)(5)(6)(7)(8)(9)(10)78其中=,,k=0,1,2,,n。由Caputo分数阶导数的定义,式(10)可转化为如下矩阵形式:DC(1-)-,DC,(1-)-,DC(1-)=D iCDPC(1-)-,DPC(1-)-,.,DC(1-)-|=D,C(-1)C;C-。(-1)C;C,-。其中,C=(-1)*C.C-。:L(-1)CC。Di=Da(l,?,.x)=Dz=D(1,c,?,.x)=运用Bernstein配点法将式(7)转化为矩阵形式。取m十1个配置点,将式(11)、式(12)和式(13)代人式(7),得到:式中,G=APiC+BP,C-J,W=(wo,i,Wz,w,)T,
9、W=u,(k/n),H=a(ao)00a(i)a(a2,A0k(ro,t)C,t(1-t)-dtJ0k(i,t)C,t(1-t)-dtJ杭州电子科技大学学报(自然科学版)00(-1)C,C%-10(-1)C;C,-1(-1)C,C%2(-1)-1C,C;F1(-1)CC2r(1+1)0,r(1+1-)r(I p1+1)r(II+1-)l=0,1,mmGW=H00k(ro,t)C,tl(1-t)-1dt0k(i,t)C,tl(1-t)-1Jdt02023年(11)(12)000(-1)C.Cnr(n+1)T(n+1-)r(n+1)g(co),g(ci),0b(co)0b(ai)b(a2),B=0
10、0a(m),j=。(13)(14)00000b(am)k(o,t)C,t(1-t)Jdt0k(ci,t)Cit(1-t)-dtk(m,t)C,to(1-t)-dt0r(1+1)00r(1+1-)(1+1)00Pi:r(1+1-k(m,t)C,tl(1-t)-1Jdtk(m,t)C,t(1-t)-Jdtr(n+1)r(n+1-)F(n+1)r(n+1-)r(1+1)00r(I 1+1-)T(I 1+1)00F(I 1+1-)00P2r(I 1+1-)r(I 1+1)00r(1+1-)r(n+1)mr(n+1-)r(n+1)r(n+1-)r(1+1)r(n+1)r(n+1-):r(n+1)j-r(
11、n+1-)m,n第3期3基基于Bernstein多项式的前馈型神经网络本文采用Bernstein函数扩展块作为神经网络的隐含层,w=un(k/n)作为Bernstein函数扩展块到输出层的权重,输人向量=(c o,1,a m)进人输人层后,通过Bernstein函数扩展块到输出层,进行Bernstein多项式的展开,构造了基于Bernstein多项式的前馈型神经网络,其网络拓扑结构如图1所示。输入层XoXXm取损失函数为杨刘盼,等:基于前馈型神经网络解变系数分数阶积分微分方程Bernstein函数扩展块Cx(1-x)C,x(1-x,)-1C,x;(1-x)Cx(1-x)图1基于Bernstei
12、n多项式的前馈型神经网络拓扑结构79u.(0/n)u(1/n)u,(2/n)u,(n/n)u,(i/n)(k+1)=u,(iln)(k)+u,(iln)(k)输出层B,(u,x,)Ek(a,t)Cht*(1-t)-Jdt)-g(a,)将损失函数转化为矩阵形式,E:2将配置点;作为神经网络的输入向量,对权重W进行学习,在损失函数最小化的约束下,使得神经网络获得较高的逼近精度。采用梯度下降法对式(14)进行求解,并按以下规则对权重W进行迭代更新,(16)AW(i)=-n aW(i)aE+W(i-1)式中,i为迭代次数,E0,1)为动量项系数,n为神经网络学习率。综上所述,本文提出的基于Bernst
13、ein多项式的前馈型神经网络权重W学习算法流程如下。(1)令0,n 0,设定目标误差Emax0,随机初始化权重W。(2)i:=0,其中i为学习算法的迭代次数,误差E设置为0。(3)i:=i 十1,对未知函数进行计算:(a)通过输入向量和权重W计算神经网络的当前输出向量;(b)通过输出向量计算神经网络的当前误差E;(c)利用损失函数和梯度下降法调整权重W。(4)如果EEmax,将E设为0,返回步骤3,开始新的训练周期;如果E0 即mx(cfc)2,误差函数序列(E(W(i)是单调递减,故0 n25数值实例通过求解2 个变系数分数阶Fredholm积分微分方程来验证本文提出的基于Bernstein
14、多项式构造的前馈型神经网络求解变系数分数阶积分微分方程的可行性和有效性。例1变系数分数阶Fredholm积分微分方程如下:(2+1)D1.5 u(a)+(+1)D(r)=frcos(+t)u(t)dt+g(r)且u(0)=0,u(1)(0)=1,方程的精确解为u()=re*。Be r n s t e i n 多项式阶数n分别为7,8,9,10,11时,采用本文提出的基于Bernstein多项式构造的前馈型神经网络求解方程,得到数值解与精确解的误差如表1所示。表1n=7,8,9,10,11时,本文方法求得的数值解与精确解的误差780.14.2834X10-90.21.408 210-80.33.
15、6516X10-80.44.6591X10-80.56.5631X10-80.69.4920X10-80.71.0834X10-70.81.133 710-70.91.5740X10-7从表1可以看出,随着Bernstein多项式阶数n的增大,数值解越来越逼近精确解,说明采用本文方法求解变系数分数阶积分微分方程的可行性和有效性。例2 变系数分数阶Fredholm积分微分方程如下:杭州电子科技大学学报(自然科学版)E(W(i+1)E(W(i)-HHaE2Gaw(i)2aE2Bernstein多项式阶数n91.8046X10-97.824 2X10-122.361 110-91.654 6X10-
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 前馈型 神经网络 系数 分数 积分 微分方程
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。