欢迎来到天天文库
浏览记录
ID:18076507
大小:17.78 KB
页数:8页
时间:2018-09-13
《农田有效灌溉面积的预测方法及应用_1》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库。
1、农田有效灌溉面积的预测方法及应用摘要:以归一化处理后的1986-XX年河南省农田有效灌溉面积的统计数据作为样本数据,分别采用BP神经网络和支持向量机回归两种方法建立了农田有效灌溉面积的预测模型。预测结果表明,支持向量机的预测方法具有更高的预测精度和更强的泛化能力,预测误差仅为BP神经网络预测误差的%,更适合进行农田有效灌溉面积的预测。最后采用两种模型分别对河南省“十二五”期间的农田有效灌溉面积进行了预测,指出了其变化趋势。关键词:农田有效灌溉面积;BP神经网络;支持向量机;预测 农田有效灌溉面积指有固定水源、灌溉工程设施配套、土地平整、在一般年景下能够进行正常灌溉的耕地面
2、积,包括机灌面积、电灌面积、自流灌溉面积和喷灌面积[1]。它是反映农田水利建设和水利化的重要指标,也是我国各地区制定水利发展规划的重要指标之一。对农田有效灌溉面积进行预测可以为了解未来农村水利基础设施的建设状况提供有价值的参考信息,同时也可为相关部门合理制定行业发展规划提供理论支持。 1预测方案的确定与预测方法的选择 预测方案的确定 农田有效灌溉面积的变化受多方面因素的影响,比如政策、中央财政资金投入、地方财政资金投入、农民收入状况等。这些因素并不是孤立地对农田有效灌溉面积产生影响,而是耦合在一起以非线性的方式影响农田有效灌溉面积的变化。 农田有效灌溉面积的预测有两
3、大类方案:一种为结构式的预测方法,就是通过一定的方式建立起各主要影响因素与农田有效灌溉面积之间的关系,然后根据未来各影响因素的变化去预测相对应的农田有效灌溉面积;另一种为数据序列预测法,就是将各年度的农田有效灌溉面积数值作为连续的时间序列看待,可以认为农田有效灌溉面积的变化规律已经蕴含在数据序列之中,再采用合适的方法对该序列在未来的取值进行预测。 在第一种方案中,首先需要确定具体影响农田有效灌溉面积变化的因素种类及其影响规律,另外还需要对各因素的未来变化进行预测。准确地确定影响农田有效灌溉面积变化的各种因素本身就很有难度,各因素对有效灌溉面积影响规律的辨识也同样是一个比较
4、复杂的问题,而预测各因素未来的变化更是一个几乎和预测农田有效灌溉面积难度相当的问题。在第二种方案中,首先需要建立起能够充分反映农田有效灌溉面积变化规律的预测模型,然后通过求取该预测模型在未来的输出值即可实现预测。两种方案相比,显然第二种方案更容易实现。因此,在以下研究中采用数据序列预测方案。 预测方法的选择 在数据序列的预测中,目前广泛采用的方法有移动平均法、指数平滑法、线性回归法、灰色预测法、神经网络法和支持向量机方法等。这些方法中神经网络法和支持向量机方法从本质上来说更为适合应用于非线性预测问题。而农田有效灌溉面积所构成的数据序列是一个典型的非线性序列。显然在该研究
5、中采用神经网络法和支持向量机方法较为合适。为了充分研究这两种方法的适用性,以下对这两种方法进行对比分析。 2两种预测方法的理论基础及特性分析 BP神经网络预测的理论基础及特性分析 在各类神经网络中,BP神经网络堪称最经典、使用最为广泛的一种神经网络[2,3]。 BP神经网络是误差反向传播神经网络的简称。BP神经网络通常由1个输入层、若干隐含层和1个输出层组成,在每层中可以包括若干个神经元。各相邻层神经元之间多为全连接方式,而同层神经元之间则无连接[4]。各神经元间的连接传递相应的权值,隐含层及输出层各神经元都有自己的阈值。BP神经网络作为一种前馈网络,具有前馈网络的
6、共性。研究表明,三层前馈网络就能够以任意精度逼近任意连续函数及其各阶导数[5]。对序列进行建模,从本质上来说就是获得序列的变化泛函,BP神经网络的函数逼近功能正好可以实现此过程。 但BP神经网络也存在若干缺陷,其中比较突出的是网络结构的不易确定、易限于局部收敛和收敛速度慢。其中网络结构的不易确定是指在确定网络结构参数的过程中没有准确的依据可以遵循。而局部收敛则对BP神经网络的函数逼近功能影响较大。 支持向量机预测的理论基础及特性分析 3预测模型的建立 样本数据的准备 从河南统计年鉴中收集了1986-XX年河南省农田有效灌溉面积的统计数据[10]。为了降低预测模型的
7、复杂程度,采用峰值法对这些数据进行了归一化处理。将归一化后的1986-XX年数据作为训练样本,XX年数据作为检验样本。 确定预测模型每次的输入样本中包含6个数据,即用连续6年的数据预测第七年的数据。据此可建立训练时的输入样本矩阵和输出样本向量。 预测模型基本参数的确定与训练 1)BP神经网络基本参数的确定与训练。确定BP神经网络的隐含层数为1,输入层神经元数为6,输出层神经元数为1,隐含层神经元数为11。隐含层和输出层的激励函数分别采用正切型Sigmoid函数和对数型Sigmoid函数。为了提高收敛速度,训练
此文档下载收益归作者所有