一种有效的增量顺序学习模糊神经网络.pdf

一种有效的增量顺序学习模糊神经网络.pdf

ID:58016858

大小:248.46 KB

页数:4页

时间:2020-04-20

一种有效的增量顺序学习模糊神经网络.pdf_第1页
一种有效的增量顺序学习模糊神经网络.pdf_第2页
一种有效的增量顺序学习模糊神经网络.pdf_第3页
一种有效的增量顺序学习模糊神经网络.pdf_第4页
资源描述:

《一种有效的增量顺序学习模糊神经网络.pdf》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、第28卷第10期控制与决策2013年l0月、,_0l_28No.10ControlandDecision0ct.2Ol3文章编号:1001.0920(2013)10.1564—04一种有效的增量顺序学习模糊神经网络胡蓉1,2,徐蔚鸿,3(1.南京理工大学计算机科学与技术学院,南京210094;2.长沙航空职业技术学院航空电子电器工程学院,长沙410014;3.长沙理工大学计算机与通信工程学院,长沙410014)摘要:利用误差下降率定义输入数据对系统输出的敏感性,并以此作为规则产生标准,提出一种有效增量顺序学习模糊神经网络.将修剪策略引入规则产生过程

2、,因此该算法产生的模糊神经网络不需要进行修剪.通过仿真实验,本算法在达到与其他算法相当性能的情况下,能够获得更高的准确率和更简单的结构.关键词:增量学习:模糊神经网络;增长规则;扩展卡尔曼算法中图分类号:TP273文献标志码:AAnefficientincrementalsequentiallearningalgorithmforfuzzyneuralnetworksHURong1,2.XUWei.hong1,3(1.SchoolofComputerScienceandTechnology,NanjingUniversityofScienceand

3、Technology,Nangiing210094,China:2.AviationInstituteofElectricalandElectronicEngineering,ChangshaAeronauticalVocationalandTechnicalCollege,Changsha410014,China;3.CollegeofComputerandCommunicationsEngineering,ChangshaUniversityofScience&Technology,Changsha410014,China.Correspond

4、ent:HURong,E—mail:410907140@qq.cornAbstract:TheerrorreductionratioiSusedtodefinethesensibilityofinputdatatOoutput.andthesensibilityiSusedasgrowthcriteria.Anefficientincrementalsequentiallearningalgorithmforfuzzyneuralnetworks(ISL·FNN)ispresented,wherethestructurelearningalgori

5、thmincorporatingapruningstrategyintonewgrowthcriteriaisdeveloped.TheperformanceofISL-FNNiscomparedwithseveralexistingalgorithmsonsomebenchmarkproblems.SimulationresultsshowthatISL—FNNhasmorosimplestructureandbetteraccuracywithlessnumberofrulescomparedtootheralgorithms.Keywords

6、:incrementllearning;fuzzyneuralnetwork;growingcriteria;extendedKalmanfilterO引言本.文献【7]提出了正交最小方差(OLS)学习算法,其模糊系统(FIS)能够通过一系列模糊规则逼近任结构和参数识别同时进行.文献【8】提出了一种基于意非线性输入输出对,将RBF(radialbasisfunction)神RBF的动态模糊神经网络(DFNN)算法,该算法可以经网路和FIS相结合[卜2】以实现上述任务的网络称为自适应增加和删除规则.文献【9】在此基础上提出模糊神经网络(FNN).文献

7、【1】提出的资源定位网络了一种广义DFNN(GDFNN)算法,基于椭圆基函数(RAN)基于新到数据的新颖性增加隐含层单元,其改(EBF)提出在线参数定位机制,利用E完备性为每个进算法称作扩展的卡尔曼RAN方法(RANEKF)[31,用输入变量的维数定位初始宽度,但该方法是以牺牲计EKF替代LLS方法调整网络参数,一旦规则建立将不算速度为代价的.类似的在线方法均存在一定缺陷,再被删除.为了解决此缺陷,提出了最少资源定位网复杂的增长和修剪策略降低了学习速度,且使得网络络(MRAN)[4-5】,在学习过程中,检测不活跃的神经元难以理解.并将其删除,这样便

8、可以产生更加精简的网络.此后文献[10]提出了一种快速准确自组织模糊神经提出的增加和修剪RBF(GAP.RBF)方法通过简

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。