欢迎来到天天文库
浏览记录
ID:33811387
大小:7.30 MB
页数:67页
时间:2019-02-28
《混合神经网络结构自生成方法研究》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、北京化工大学学位论文原创性声明本人郑重声明:所呈交的学位论文,是本人在导师的指导下,独立进行研究工作所取得的成果。除文中已经注明引用的内容外,本论文不含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究做出重要贡献的个人和集体,均已在文中以明确方式标明。本人完全意识到本声明的法律结果由本人承担。作者签名:型查日期:21坚Z皇厶!关于论文使用授权的说明学位论文作者完全了解北京化工大学有关保留和使用学位论文的规定,即:研究生在校攻读学位期间论文工作的知识产权单位属北京化工大学。学校有权保留并向国家有关部门或机构送交论文的复印件和磁盘,允许学位论文被查阅和借阅;学校可以公布学位论文
2、的全部或部分内容,可以允许采用影印、缩印或其它复制手段保存、汇编学位论文。口论文暂不公开(或保密)注释:本学位论文属于暂不公开(或保密)范围,在』L年解密后适用本授权书。口非暂不公开(或保密)论文注释:本学位论文不属于暂不公开(或保密)范围,适用本授权书。作者签名:爿丕导师签名:奎叁宣日期:三:!兰丛丛日期:立里!翌:[:主!学位论文数据集{BillIIIIIIIIIitlIIIIltlllII}Y2628724中图分类号TPl83学科分类号520.2060论文编号100l02011200781密级公开学位授予单位代码10010学位授予单位名称北京化工大学作者姓名刘方学号201120
3、0781获学位专业名称控制科学与工程获学位专业代码0811课题来源自选课题研究方向人工智能理论与应用论文题目混合神经网络结构自生成方法研究关键词神经网络,粒子群算法,结j向自增长论文答辩日期2014-5-24t论文类型应用研究学位论文评阅及答辩委员会情况姓名职称工作单位学科专长指导教师李大字教授北京化工大学过程控制、分数阶控制评阅人1李宏光教授北京化工大学过程控制评阅人2耿志强教授北京化工大学先进控制评阅人3评阅人4评阅人5答辩委员会主席李宏光教授北京化工大学过程控制答辩委员1赵众教授北京化工大学先进控制答辩委员2耿志强教授北京化工大学先进控制答辩委员3张金会副教授北京化工大学网络化
4、控制答辩委员4夏涛副教授北京化工大学计算机技术答辩委员5江:一.四。论文类型:1.基础研究2.应用研究3.开发研究4.其它中图分类号在《中国图书资料分类法》查询。学科分类号在中华人民共和国国家标准(GB/T13745—9)《学科分类与代码》中查询。论文编号由单位代码和年份及学号的后四位组成。摘要混合神经网络结构自生成方法研究神经网络是当今人工智能邻域研究的热点之一。作为对神经系统生物学规律的模拟,预先设计好的结构的神经网络往往会使得其在功能上存在一定的局限性。研究结构自生长的神经网络,既是对智能本源的探索,也可以精简神经网络的结构和提高神经网络的泛化性。目前,自生长神经网络己经在很多
5、领域取得了大量的进展。然而,大部分的自生长神经网络存在着计算量大,结构复杂,生长缓慢,易产生死神经元以及不能很好地利用自增长的优势的缺点。本文在前人的研究基础上,提出了一种基于混和算子的自增长神经网络,并通过一种引导型粒子群算法来提高其生长的效率。主要工作如下:1、提出了一种基于引导的粒子群算法,通过量子化以及免疫特征避免了粒子群的种群多样性的过早单一,并提出了引导粒子指引粒子群跳出局部极小值。以经典测试函数为例,将结果与其它算法进行了比较,得到了较好的效果;2、利用引导型粒子群算法对传统的神经网络进行了优化,提高了算法的精确度以及泛化性。并通过双螺旋分类进行了验证,得到了较好的效田
6、木03、提出了一种基于混合算子的自增长神经网络,该神经网络通过对自增长的混合隐含层结构,包含一个加法部分和一个乘法部分来构成网络北京化T-大学硕-上学位论文结构。生成的神经网络神经元个数少且结构精确。在级联神经网络的结构基础上,采用引导粒子群算法来引导神经网络的结构自增长以及权值的更新。并通过对原料电池的建模与比较分析,证明了方法的有效性和良好的应用前景。关键词:神经网络,混和算子,粒子群算法,燃料电池建模IIABSTRACTAnHybridNeuralNetworkBasedOnSelf-GrowingMethodStudyNeuralnetworksareoneofthehots
7、potsofcurrentresearchonartificialintelligence.Asasimulationofbiologicalnervoussystem,pre—designedstructurewilloftenmakeneuralnetworkhassomelimitationsinitsfunctionality.Studyingonself-growingstructureneuralnetworkisnotonlytoexplor
此文档下载收益归作者所有