GM_1_1_模型参数的神经网络算法.pdf

GM_1_1_模型参数的神经网络算法.pdf

ID:52439804

大小:167.34 KB

页数:5页

时间:2020-03-27

GM_1_1_模型参数的神经网络算法.pdf_第1页
GM_1_1_模型参数的神经网络算法.pdf_第2页
GM_1_1_模型参数的神经网络算法.pdf_第3页
GM_1_1_模型参数的神经网络算法.pdf_第4页
GM_1_1_模型参数的神经网络算法.pdf_第5页
资源描述:

《GM_1_1_模型参数的神经网络算法.pdf》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、第36卷第4期数学的实践与认识Vol.36No.42006年4月MATHEMATICSINPRACTICEANDTHEORYApril,2006GM(1,1)模型参数的神经网络算法112史雪荣,王作雷,王钟羡(1.盐城师范学院数学系,江苏盐城224002)(2.江苏大学理学院,江苏镇江212013)摘要:GM(1,1)模型的实质是小样本、贫信息下的预测模型,其目的是得到误差尽可能小的预测值.在分析GM(1,1)模型建模机理的基础上,提出了GM(1,1)模型中参数a,b的一种新算法——神经网络算法.把神经网络中的BP算法应用于GM(1,1

2、)模型的建模过程,实例表明可使预测精度得到提高.关键词:GM(1,1)模型;神经网络;BP算法[1]灰色系统GM(1,1)模型在建立以来,使用范围越来越广泛,因而如何合理地使用该模型,提高预测精度一直是科技工作者感兴趣的,也是比较难的问题.许多研究者都致力于[2]寻找各种各样的方法对GM(1,1)模型进行修正.如残差GM(1,1)修正模型、GM(1,1;[3][4])模型,以及采用加权,优化等方法以提高模型的精度.但这些方法大多较烦琐,没有从根本上对GM(1,1)模型进行改进以提高模型精度.文献[5]提出了GM(1,1)模型的精度和适

3、用性与模型中背景值的构造有关,采用逐步试凑法确定面积构造背景值,但这种方法过于复杂,不便于推广.本文通过研究发现,可以利用神经网络的自学习能力、纠错能力、自适[6]应能力等特点,将神经网络的BP算法用于GM(1,1)模型中参数a,b的估算.计算实例表明改进后的GM(1,1)模型比原始模型精度提高.1灰色系统GM(1,1)模型设原始数列为(0)(0)(0)(0)x(k)=x(1),x(2),⋯,x(n)(1)其一次累加生成序列(1-AGO)为(1)(1)(1)(1)x(k)=x(1),x(2),⋯,x(n)(2)k(1)(0)其中x(k)

4、=x(i).i=1建立GM(1,1)模型为:(1)dx(1)+ax=b(3)dt其中待辨参数a、b由下式求出aT-1T=(BB)BY(4)b收稿日期:2004-04-20基金项目:江苏省自然科学基金(BK99109);江苏省教育厅高校自然科学研究计划(4KJD130039)4期史雪荣,等:GM(1,1)模型参数的神经网络算法127其中1(1)(1)-x(1)+x(2)12(0)x(2)1(1)(1)(0)-x(2)+x31x(3)B=2,Y=.(0)x(n)1(1)(1)-x(n-1)+x(n)12求解微分方程(3)得响应函数

5、(1)(0)b-akbx(k+1)=x(1)-e+(k=1,2,3⋯)(5)aa还原得(0)(0)(0)a(0)b-akx(k+1)=x(k+1)-x(k)=(1-e)x(1)-e(6)a[6]2神经网络的BP学习算法本文采用的BP网络,即多层前馈网络,又称误差反向传播网络,其结构如图1所示,分为输入层、隐含层、输出层,层与层之间采用全连接方式.在BP网络结构中有两种信号流通:工作信号,它是施加输入信号后向前传播直到在输出端产生实际输出图1BP网络结构的信号,是输入信号和权值的函数.误差信号,网络实际输出与应有输出间有差值,即

6、为误差,它由输出端开始逐层向后传播.BP算法训练网络时有两种方式,一种是逐个样本学习算法,即每输入一个样本修改一次权值;另一种是批处理方式,即待组成一个训练周期的全部样本都依次输入后计算总的平均误差.本文采用第一种处理方式.设在第n次迭代中输出端的第j个单元的输出为yj(n),而应有输出为dj(n),则该单元的误差信号为ej(n)=dj(n)-yj(n),输出端总的平方误差的瞬时值为12E(n)=ej(n)(7)2j其中j取遍所有输出单元,设样本总量为N,则平方误差的均值为N1EAV=E(n)(8)Nn=1EAV为学习的目标函数,当

7、EAV达到极小时,计算终止.BP算法的步骤:1)初始化,选定一结构合理的网络,置所有可调参数(权和阀值)为均匀分布的较小数值.2)每个输入样本作如下计算:128数学的实践与认识36卷前向计算,对第l层的j单元T(l)(l)(l-1)Vj(n)=ji(n)yi(n)i=0(l-1)(l-1)(l)其中yi(n)为前一层的单元i送来的工作信号,(i=0时,置y0(n)=-1,j0(n)=(l)j(n),若单元j的激活函数为Sigmoid函数,则(l)1yj(n)=(l)1+exp-vj(n)(l)′yj(n)exp-vj(n)且y

8、j(n)==2=yj(n)1-yj(n).vj(n)(1+exp-vj(n))(0)若神经元属于第一隐层(l=1),则有yj(n)=xj(n);若神经元属于输出层(l=L),(L)则有yj(n)=Oj(n

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。