资源描述:
《神经网络预测时间序列》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、神经网络预测时间序列如何作预测?理想方法是利用已知数据建立一系列准则,用于一般条件下预测,实际上由于系统的复杂性而不太可能,如股票市场预测。另一种途径是假设一次观测中过去、未来值之间存在联系。其中一种选择是发现一个函数,当过去观测值作为输入时,给出未来值作为输出。这个模型是由神经网络来实现的。1.2神经网络预测时间序列(1)简单描述在时间序列预测中,前馈网络是最常使用的网络。在这种情形下,从数学角度看,网络成为输入输出的非线性函数。记一个时间序列为,进行其预测可用下式描述:(1)时间序列预测方法即是用神经网络来拟合函数,然后预测未来值。(2)网络参数和网络大小用于预测的神经网
2、络性质与网络参数和大小均有关。网络结构包括神经元数目、隐含层数目与连接方式等,对一个给定结构来说,训练过程就是调整参数以获得近似基本联系,误差定义为均方根误差,训练过程可视为一个优化问题。在大多数的神经网络研究中,决定多少输入与隐层单元数的定量规则问题目前尚未有好的进展,近有的是一些通用指导:首先,为使网络成为一个完全通用的映射,必须至少有一个隐层。1989年证明一个隐层的网可逼近闭区间内任意一个连续函数。其次,网络结构要尽可能紧致,即满足要求的最小网络最好。实际上,通常从小网络开始。逐步增加隐层数目。同样输入元数目也是类似处理。(3)数据和预测精度通常把可用的时间序列数据分
3、为两部分:训练数据和检验数据。训练数据一般多于检验数据两倍。检验过程有三种方式:短期预测精度的检验。用检验数据作为输入,输出与下一个时间序列点作比较,误差统计估计了其精度。长期预测中迭代一步预测。以一个矢量作为输入,输出作为下一个输入矢量的一部分,递归向前传播。直接多步预测。即用直接进行预测,输出的预测值,其中。太阳黑子的6个分量,输入神经元的个数分别为:9、8、11、6、5、3。对每一个尺度分解的成分进行归一化后,精度有明显的提高。当训练样本长度为244点(从1700年到1943年),检验样本长度为60点(从1944年到2003年),一步向前预测结果的均方误差(Meansq
4、uareerror,MSE)对比。其中,只用一个神经网络训练的神经元输入为9个。多分量神经网络中的每个分量的神经元输入分别为9,8,11,6,5,3。神经网络训练样本MSE检验样本MSE单神经网络0.00700.0154多分量神经网络0.00550.0141------------------------------------------------------------------------------------------------------------------------------------------------------------------
5、---------------------------------------以不平衡模型为基准,1024点,12阶(每个分量的神经元输入数目为12个),分别输入8个不平衡故障样本,8个不对中故障样本,8个不对中加松动故障样本,样本长度为1024。其SNR值见下表。样本数不平衡(参考)不对中不对中加松动147.744231.632634.1681245.330630.554833.1359343.468030.195834.1574442.224329.859732.8987541.649530.278733.3355638.147430.155534.8945738.283
6、130.169933.0617840.130229.604332.0062均值偏差42.12223.347730.30640.605633.45720.9066-----------------------------------------------------------------------------------------------------以不对中为基准,1024点,12阶(每个分量的神经元输入数目为12个),分别输入8个不平衡故障样本,8个不对中故障样本,8个不对中加松动故障样本,样本长度为1024。其SNR值见下表。样本数不平衡不对中不对中加松动137
7、.424242.069335.9987235.618940.726536.4589334.853540.976236.6759433.676139.738435.6434533.331841.282636.4873631.134240.245037.0039732.577540.940836.4223835.052839.587635.3481均值偏差34.20861.950240.69580.821036.25480.5508--------------------------------------