BP网络的再改进.doc

BP网络的再改进.doc

ID:59256729

大小:20.00 KB

页数:2页

时间:2020-09-08

BP网络的再改进.doc_第1页
BP网络的再改进.doc_第2页
资源描述:

《BP网络的再改进.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、BP网络的再改进BP人工神经网络模型的进一步改进及其应用.pdf2.1 初始权值的选取虽然随机产生初始权值可以提高误差函数E取得全局最优的概率,但仍具有一定的盲目性和随机性.在BP算法中由于采用sigmoid函数:f(x)=11+e-x,实际输出值在[0,1]之间.因而初始权值不宜太大,一般都选在[-1,1]之间.采用逐步搜索法,即先将初始权值区域(记为H)N等分.在这N个区域内分别随机产生初始权值进行学习,选取对应误差函数E最小的那个区域再N等分,再在这N个小区域内重复上述步骤,当误差函数E不

2、再减时,认为找到了最优点并停止迭代.可以证明,只要区域取得足够小,这种方法可以比较有效地避免局部行为.2.2 隐节点数的确定对于隐节点数的确定,采用由小到大增长的方法,选取对应误差最小的那个数目作为隐节点数.同时,结合隐节点的删除与合并算法[3],最终得到一个较合适的神经网络BP模型.2.3 输入待定的BP网络输入维数的确定论基于MATLAB语言的BP神经网络的改进算法改进的算法[2,5,11],如使用动量项的加快离线训练速度的方法[1]、归一化权值更新技术方法[11]、快速传播算法[12]、D

3、-D方法[13]、扩展卡尔曼滤波法[14]、二阶优化[15]以及最优滤波法[16]等1973年Grossberg发现Sigmoid函数的中间高增益区合理处理小信号问题,而延伸两边的低增益区恰好合适的处理大信号。开始探究S型函数的特性与神经网络系统稳定性之间的关系,促使该函数成为BP网络中最常用的激活函数。此后国外学者针对S型函数的局限性进行改进,1987年Stornetta提出的双极性S型压缩函数和1990年AliRezgui提出的SLSL函数是改进的S型函数的典型代表。定量化的研究证明周期函数

4、的收敛速度比s型函数要快,General研究实验室的SurenderKKenue提出的一组新型激活函数,其一阶导数是,利用新型激活函数针对宇对问题、编码问题进行计算机仿真实验,实验结果表明新型激活函数较传统S型函数有更好的仿真结果。激活函数的数字特性直接影响BP网络的学习速率和仿真结果,而不同的误差函数的递减方法对激活函数导数的要求不同,激活函数的导数在输入信号的定义域内应连续可微,并且到数值应有显著变化,以满足误差下降过程中对梯度灵敏性的要求。大量实验表明应该根据实际灵活的选择激活函数,,不同

5、区间内函数特性不同的激活函数组合起来,以便在需要的位置设置较大的到数值,弥补单一函数的不足。国内二、主要研究内容、创新之处:1.初始权值的选取虽然随机产生初始权值可以提高误差函数E取得全局最优的概率,但仍具有一定的盲目性和随机性.在BP算法中由于采用sigmoid函数:,实际输出值在[0,1]之间.因而初始权值不宜太大,一般都选在[-1,1]之间.采用逐步搜索法,即先将初始权值区域(记为H)N等分.在这N个区域内分别随机产生初始权值进行学习,选取对应误差函数E最小的那个区域再N等分,再在这N个小

6、区域内重复上述步骤,当误差函数E不再减时,认为找到了最优点并停止迭代.可以证明,只要区域取得足够小,这种方法可以比较有效地避免局部行为.2.隐节点数的确定对于隐节点数的确定,采用由小到大增长的方法,选取对应误差最小的那个数目作为隐节点数.同时,结合隐节点的删除与合并算法,最终得到一个较合适的神经网络BP模型.3.

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。