grnn和bpnn函数逼近性能对比探究

grnn和bpnn函数逼近性能对比探究

ID:5597543

大小:36.00 KB

页数:12页

时间:2017-12-19

grnn和bpnn函数逼近性能对比探究_第1页
grnn和bpnn函数逼近性能对比探究_第2页
grnn和bpnn函数逼近性能对比探究_第3页
grnn和bpnn函数逼近性能对比探究_第4页
grnn和bpnn函数逼近性能对比探究_第5页
资源描述:

《grnn和bpnn函数逼近性能对比探究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、GRNN和BPNN函数逼近性能对比探究  摘要:为了研究GRNN和BPNN非线性函数的逼近能力,从数学角度详细阐述了GRNN和基于LM优化算法改进的BPNN的学习过程,编程建立了GRNN和BPNN,并分别用两种神经网络对指定的非线性函数进行逼近实验。仿真结果表明,在训练样本数量相等且中小规模网络的条件下,相对于BPNN而言,GRNN的逼近精度更高、收敛速度更快,具有很好的逼近能力,为解决非线性函数的逼近问题提供了良好的解决手段。关键词:广义回归神经网络;反向传播神经网络;函数逼近;逼近能力对比;仿真中图分类号:TN711?34;TP183文献

2、标识码:A文章编号:1004?373X(2014)07?0114?04ComparativestudyonfunctionapproximationperformancesofGRNNandBPNNDINGShuo,CHANGXiao?heng,WUQing?hui(CollegeofEngineering,BohaiUniversity,Jinzhou121013,China)Abstract:TostudythenonlinearfunctionapproximationperformancesofGRNNandBPNN,thelearn

3、ingprocessesofGRNNandBPNNbasedonLM12optimizationalgorithmimprovementareillustratedmathematicallyinthispaper.ThenGRNNandBPNNwereestablishedwithcomputerprogramming.Agivennonlinearfunctionwasapproximatedbythetwoneuralnetworksrespectively.Thesimulationresultsindicatethatwhenthe

4、numbersoftrainingsamplesarethesameandthenetworksaresmallormedium?sized,GRNNhashigherprecision,fasterconvergencespeed,andbetterapproximationabilitythanBPNN.ThusGRNNisagoodmethodtosolvetheproblemofnonlinearfunctionapproximation.Keywords:GRNN;BPNN;functionapproximation;approxi

5、mationcapabilitycomparison;simulation0引言数值逼近是指给定一组数据,用数学分析的方法来分析这组数据,常用的数学分析方法有多项式拟合和插值运算。由于人工神经元网络(ArtificialNeuralNetworks,12ANN)具有很强的非线性映射能力、自学习性和容错性,近些年来,采用ANN对于非线性函数进行逼近成为数值逼近领域的一个研究热点。目前,国内外学者绝大部分使用的ANN模型是BP神经网络,但是,传统的BP网络收敛速度慢,训练时间长和目标函数存在局部最小等缺点,所以,很多学者提出了许多改进算法。广义回

6、归神经网络(GeneralRegressionNeuralNetworks,GRNN)具有很强的非线性映射能力和柔性网络结构以及高度的容错性和鲁棒性,很适合于解决非线性函数的逼近问题[1?5]。笔者以标准BP(BackPropagation)算法为基础,利用收敛速度相对较快、拟合精度较高且性能稳定的LM(Levenberg?Marquart)算法来构建LMBP神经网络,同时构建了GRNN,分别对指定的非线性函数进行逼近实验,并对结果进行比较分析。仿真结果表明,GRNN对非线性函数的逼近能力要明显地高于BPNN,并且设计起来更为方便。1人工神经

7、网络函数逼近定理令[?(?)]为有限非常量的单调增连续函数,[IP]代表[P]维超立方体[[0,1]P],[C(IP)]表示定义在[IP]上的连续函数构成的集合,则给定任意函数[f(?)∈C(IP)]和[ε>0,]存在正整数[M]和一组实常数[?i,][θi]和[ωij,]其中[i=1,2,…,M;][j=1,2,…,p,]使得神经网络的输出如式(1)所示[6]:[F(x1,x2,…,xp)=i=1M?i?(j=1pωijxj-θi)](1)即网络可逼近任意函数[f(x):][F(x1,x2,…,xp)-f(x1,x2,…,xp)  [x(k

8、+1)=x(k)-JTJ+μI-1JTe(k)](5)12式中:[I]为单位矩阵;比例系数[μ]是一个大于0的很小的参数,当[μ]接近零时,式(5)变为牛顿法;当[

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。