BP神经网络算法学习.docx

BP神经网络算法学习.docx

ID:59256733

大小:99.28 KB

页数:6页

时间:2020-09-08

BP神经网络算法学习.docx_第1页
BP神经网络算法学习.docx_第2页
BP神经网络算法学习.docx_第3页
BP神经网络算法学习.docx_第4页
BP神经网络算法学习.docx_第5页
资源描述:

《BP神经网络算法学习.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、BP神经网络算法学习分类: 算法2011-06-1117:34 31779人阅读 评论(12) 收藏 举报网络算法networklayeroutputinputBP(BackPropagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。一个神经网络的结构示意图如下所示。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidelayer

2、)和输出层(outputlayer)。输入层神经元的个数由样本属性的维度决定,输出层神经元的个数由样本分类个数决定。隐藏层的层数和每层的神经元个数由用户指定。每一层包含若干个神经元,每个神经元包含一个而阈值,用来改变神经元的活性。网络中的弧线表示前一层神经元和后一层神经元之间的权值。每个神经元都有输入和输出。输入层的输入和输出都是训练样本的属性值。对于隐藏层和输出层的输入 其中,是由上一层的单元i到单元j的连接的权;是上一层的单元i的输出;而是单元j的阈值。神经网络中神经元的输出是经由赋活函数计算得到的。该函数用符号表现单元代表的神经元活性。赋活函

3、数一般使用simoid函数(或者logistic函数)。神经元的输出为:除此之外,神经网络中有一个学习率(l)的概念,通常取0和1之间的值,并有助于找到全局最小。如果学习率太小,学习将进行得很慢。如果学习率太大,可能出现在不适当的解之间摆动。交代清楚了神经网络中基本要素,我们来看一下BP算法的学习过程:BPTrain(){     初始化network的权和阈值。     while终止条件不满足{           forsamples中的每个训练样本X{           //向前传播输入           for隐藏或输出层每个单元j{

4、                  ;//相对于前一层i,计算单元j的净输入 ;//计算单元j的输出           }           //后向传播误差           for输出层每个单元j{                  ;//计算误差           }           for由最后一个到第一个隐藏层,对于隐藏层每个单元j{                   ;//k是j的下一层中的神经元           }           fornetwork中每个权 {                     ;//权

5、增值                     ;//权更新            }            fornetwork中每个偏差 {                      ;//偏差增值                      ;//偏差更新            }     }}算法基本流程就是:1、初始化网络权值和神经元的阈值(最简单的办法就是随机初始化)2、前向传播:按照公式一层一层的计算隐层神经元和输出层神经元的输入和输出。3、后向传播:根据公式修正权值和阈值直到满足终止条件。算法中还有几点是需要说明的:1、关于,是神经元的

6、误差。对于输出层神经元,其中,是单元j的实际输出,而是j基于给定训练样本的已知类标号的真正输出。对于隐藏层神经元,其中,是由下一较高层中单元k到单元j的连接权,而是单元k的误差。权值增量是,阈值增量是,其中是学习率。对于的推导采用了梯度下降的算法。推导的前提是保证输出单元的均方差最小。,其中P是样本总数,m是输出层神经元个数是样本实际输出,是神经网络输出。梯度下降思路就是对求的导数。对于输出层:其中的就是。对于隐藏层:其中=就是隐藏层的误差计算公式。2、关于终止条件,可以有多种形式:§前一周期所有的都太小,小于某个指定的阈值。§前一周期未正确分类的

7、样本百分比小于某个阈值。§超过预先指定的周期数。§神经网络的输出值和实际输出值的均方误差小于某一阈值。一般地,最后一种终止条件的准确率更高一些。在实际使用BP神经网络的过程中,还会有一些实际的问题:1、样本处理。对于输出,如果只有两类那么输出为0和1,只有当趋于正负无穷大的时候才会输出0,1。因此条件可适当放宽,输出>0.9时就认为是1,输出<0.1时认为是0。对于输入,样本也需要做归一化处理。2、网络结构的选择。主要是指隐藏层层数和神经元数决定了网络规模,网络规模和性能学习效果密切相关。规模大,计算量大,而且可能导致过度拟合;但是规模小,也可能导

8、致欠拟合。3、初始权值、阈值的选择,初始值对学习结果是有影响的,选择一个合适初始值也非常重要。4、增量学习和批量学习。上面

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。