欢迎来到天天文库
浏览记录
ID:58016858
大小:248.46 KB
页数:4页
时间:2020-04-20
《一种有效的增量顺序学习模糊神经网络.pdf》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库。
1、第28卷第10期控制与决策2013年l0月、,_0l_28No.10ControlandDecision0ct.2Ol3文章编号:1001.0920(2013)10.1564—04一种有效的增量顺序学习模糊神经网络胡蓉1,2,徐蔚鸿,3(1.南京理工大学计算机科学与技术学院,南京210094;2.长沙航空职业技术学院航空电子电器工程学院,长沙410014;3.长沙理工大学计算机与通信工程学院,长沙410014)摘要:利用误差下降率定义输入数据对系统输出的敏感性,并以此作为规则产生标准,提出一种有效增量顺序学习模糊神经网络.将修剪策略引入规则产生过程
2、,因此该算法产生的模糊神经网络不需要进行修剪.通过仿真实验,本算法在达到与其他算法相当性能的情况下,能够获得更高的准确率和更简单的结构.关键词:增量学习:模糊神经网络;增长规则;扩展卡尔曼算法中图分类号:TP273文献标志码:AAnefficientincrementalsequentiallearningalgorithmforfuzzyneuralnetworksHURong1,2.XUWei.hong1,3(1.SchoolofComputerScienceandTechnology,NanjingUniversityofScienceand
3、Technology,Nangiing210094,China:2.AviationInstituteofElectricalandElectronicEngineering,ChangshaAeronauticalVocationalandTechnicalCollege,Changsha410014,China;3.CollegeofComputerandCommunicationsEngineering,ChangshaUniversityofScience&Technology,Changsha410014,China.Correspond
4、ent:HURong,E—mail:410907140@qq.cornAbstract:TheerrorreductionratioiSusedtodefinethesensibilityofinputdatatOoutput.andthesensibilityiSusedasgrowthcriteria.Anefficientincrementalsequentiallearningalgorithmforfuzzyneuralnetworks(ISL·FNN)ispresented,wherethestructurelearningalgori
5、thmincorporatingapruningstrategyintonewgrowthcriteriaisdeveloped.TheperformanceofISL-FNNiscomparedwithseveralexistingalgorithmsonsomebenchmarkproblems.SimulationresultsshowthatISL—FNNhasmorosimplestructureandbetteraccuracywithlessnumberofrulescomparedtootheralgorithms.Keywords
6、:incrementllearning;fuzzyneuralnetwork;growingcriteria;extendedKalmanfilterO引言本.文献【7]提出了正交最小方差(OLS)学习算法,其模糊系统(FIS)能够通过一系列模糊规则逼近任结构和参数识别同时进行.文献【8】提出了一种基于意非线性输入输出对,将RBF(radialbasisfunction)神RBF的动态模糊神经网络(DFNN)算法,该算法可以经网路和FIS相结合[卜2】以实现上述任务的网络称为自适应增加和删除规则.文献【9】在此基础上提出模糊神经网络(FNN).文献
7、【1】提出的资源定位网络了一种广义DFNN(GDFNN)算法,基于椭圆基函数(RAN)基于新到数据的新颖性增加隐含层单元,其改(EBF)提出在线参数定位机制,利用E完备性为每个进算法称作扩展的卡尔曼RAN方法(RANEKF)[31,用输入变量的维数定位初始宽度,但该方法是以牺牲计EKF替代LLS方法调整网络参数,一旦规则建立将不算速度为代价的.类似的在线方法均存在一定缺陷,再被删除.为了解决此缺陷,提出了最少资源定位网复杂的增长和修剪策略降低了学习速度,且使得网络络(MRAN)[4-5】,在学习过程中,检测不活跃的神经元难以理解.并将其删除,这样便
8、可以产生更加精简的网络.此后文献[10]提出了一种快速准确自组织模糊神经提出的增加和修剪RBF(GAP.RBF)方法通过简
此文档下载收益归作者所有