欢迎来到天天文库
浏览记录
ID:30113012
大小:255.00 KB
页数:12页
时间:2018-12-27
《基于遗传算法的BP神经网络气象预报建模doc.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、基于遗传算法的BP神经网络气象预报建模wxyhome20世纪90年代以来,国内外在大气学科中开展了很多有关神经网络预报建模和气候分析等应用研究。然而随着神经网络方法在大气科学领域研究的不断深入,研究人员发现神经网络方法在实际业务天气预报应用中存在一个重要的问题,即在利用神经网络方法进行气象预报建模时,神经网络的初始权值、网络结构以及网络的学习参数,动量因子难以确定,往往是通过反复训练来确定网络的结构和各种参数,这样会导致在应用中出现过拟合问题,严重影响网络的泛化能力,极大限制神经网络在实际天气业务中
2、的应用([1-8])。该问题的研究不仅关系到在大气学科中能否进一步深入开展有关人工神经网络方法的业务预报应用,并且也是目前人工神经网络应用理论研究中尚未得到很好解决的关键技术问题。神经网络如何有效提高神经网络的泛化能力,我简单以下分析影响神经网泛化能力的因素。首先我简单介绍以下神经人工神经网络(ArtificialNeuralNetworks,ANN),简称“神经网络”(NN),它是作为对人脑最简单的一种抽象和模拟,是对人的大脑系统一定特性的描述。简单地讲,它是一个数学模型,可以用电子线路来实现或用
3、计算机来模拟人的自然智能。其中BP神经网络是目前应用最为广泛的神经网络模型之一,也是应用最具有成效的神经网络模型之一。它在大气科学预报集成、观测资料优化等方面都有应用。BP神经网络(Back-propagationNeutralNetwork)通常是指基于误差反向传播算法(BP算法)的多层前向神经网络,采用由导师的训练方式。它是D.E.Rumelhart和J.L.McCelland及其研究小组在1986年研究并设计出来的。BP算法已成为目前应用最为广泛的神经网络学习算法,绝大部分的神经网络模型是采用
4、BP算法或它的变化形式,它也是前向神经网络的核心部分,体现了神经网络最精华的部分。由于它可以实现输入和输出的任意非线性映射,这使得它在诸如函数逼近、模式识别、数据压缩等领域有广泛的应用。BP网络的学习训练过程由两部分组成,即网络输入信号正向传播和误差信号反向传播,按有导师学习方式进行训练。在正向传播中,输入信息从输入层经隐含层逐层计算传向输出层,在输出层的各神经元输出对应输入模式的网络响应;如果输出层得不到期望输出,则误差转入反向传播,按减小期望输出与实际输出的误差原则,从输出层经到中间各层,最后回
5、到输入,层层修正各个连接权值。随着这种误差逆传播训练不断进行,网络对输入模式响应的正确率也不断提高,如此循环直到误差信号达到允许的范围之内或训练次数达到预先设计的次数为止。对于个样本集合的离散时间序列,BP网络可以完成从输入到输出的高度非线性映射,即可以找到某种映射使得:。定理3.1:Kolmogorov定理,给定任一连续函数,这里是闭区间,可以精确地用一个三层前向网络实现逼近。定理3.2:BP定理,给定任意和在范数下:存在一个三层BP网络,它可以在任意平方误差精度内逼近。对于个样本集合的两个离散时
6、间序列映射的建立,在实际应用中把总样本分成两个部分,训练样本和检测样本:(1)(2)首先用训练样本经过训练建立映射关系,然后再用检测样本检验网络能否给出正确的输入-输出的关系。如果可以,我们说网络具有很好的泛化能力,可以在实际中应用,否则该网络没有任何实用价值。对于这样时间序列映射的建立,可以采用输入节点为个,输出节点为个,隐节点为个的三层BP神经网络来实现,其中输入层到隐层的激活函数采用Sinmgod型,隐层到输出层的激活函数采用线性函数。可得网络的输入与输出之间的关系如下:(3)期望输出,为网络
7、的实际输出,设定网络总的误差小于,则有:(4)设定检测样本平均均方误差小于,则有:(5)在神经网络的应用过程中,由于被逼近样本的性质不能精确知道,因此即使在网络误差为零的条件下,也未必能保证达到要求。往往会出现非常小,而却无法满足要求。这就是所谓的“过拟合”现象,“过拟合”现象直接影响网络的泛化能力[77],使得网络最终失去实用价值。网络的泛化能力由以下几个因素影响:1.取决样本的特性,只有当训练样本足以表征所研究问题的一些主要的或基本特性时,网络通过合理的学习机制可以使其具有泛化能力,合理的采样结
8、构是网络具有泛化能力的必要条件(参考文献78)。2.网络自身的因素影响,如网络结构、网络初始权值的设定和网络的学习算法等。网络的结构主要包括:网络的隐层数、各隐层节点的个数和隐节点激活函数的特性(本文主要从网络的自身因素考虑如何有效提高网络的泛化能力),以下从这几个方面说明原因:①.Funahashi证明(参考文献79),当隐层节点函数为单调递增连续函数时,三层前向网络具有以任意精度逼近定义在紧致子集上的任意非线性函数的能力,Horni(参考文献80~81)和陈天平(
此文档下载收益归作者所有