欢迎来到天天文库
浏览记录
ID:15803522
大小:64.50 KB
页数:13页
时间:2018-08-05
《bp神经网络算法原理》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、BP网络模型处理信息的基本原理是:输入信号Xi通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号Yk,网络训练的每个样本包括输入向量X和期望输出量t,网络输出值Y与期望输出值t之间的偏差,通过调整输入节点与隐层节点的联接强度取值Wij和隐层节点与输出节点之间的联接强度Tjk以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。一BP神经网络模型BP网络模型包
2、括其输入输出模型、作用函数模型、误差计算模型和自学习模型。(1)节点输出模型隐节点输出模型:Oj=f(∑Wij×Xi-qj) (1)输出节点输出模型:Yk=f(∑Tjk×Oj-qk)(2)f-非线形作用函数;q-神经单元阈值。(2)作用函数模型作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称刺激函数,一般取为(0,1)内连续取值Sigmoid函数: f(x)=1/(1+e-x) (3)(3)误差计算模型误差计算模型是反映神经网络期望
3、输出与计算输出之间误差大小的函数: Ep=1/2×∑(tpi-Opi)2 (4)tpi-i节点的期望输出值;Opi-i节点计算输出值。(4)自学习模型神经网络的学习过程,即连接下层节点和上层节点之间的权重拒阵Wij的设定和误差修正过程。BP网络有师学习方式-需要设定期望值和无师学习方式-只需输入模式之分。自学习模型为 △Wij(n+1)=h×Фi×Oj+a×△Wij(n)(5)h-学习因子;Фi-输出节点i的计算误
4、差;Oj-输出节点j的计算输出;a-动量因子。二BP网络模型的缺陷分析及优化策略(1)学习因子h的优化采用变步长法根据输出误差大小自动调整学习因子,来减少迭代次数和加快收敛速度。h=h+a×(Ep(n)-Ep(n-1))/Ep(n)a为调整步长,0~1之间取值(6)(2)隐层节点数的优化 隐节点数的多少对网络性能的影响较大,当隐节点数太多时,会导致网络学习时间过长,甚至不能收敛;而当隐节点数过小时,网络的容错能力差。利用逐步回归分析法并进行参数的显著性检验来动态删除一些线形相关的隐节点,节点删除标准:当由该节点出
5、发指向下一层节点的所有权值和阈值均落于死区(通常取±0.1、±0.05等区间)之中,则该节点可删除。最佳隐节点数L可参考下面公式计算:L=(m+n)1/2+c(7)m-输入节点数;n-输出节点数;c-介于1~10的常数。(3)输入和输出神经元的确定利用多元回归分析法对神经网络的输入参数进行处理,删除相关性强的输入参数,来减少输入节点数。(4)算法优化由于BP算法采用的是剃度下降法,因而易陷于局部最小并且训练时间较长。用基于生物免疫机制地既能全局搜索又能避免未成熟收敛的免疫遗传算法IGA取代传统BP算法来克服此缺点。该程
6、序实现神经网络的BP算法,输入节点数,输出节点数,隐层数,隐层节点数任意,由用户决定。其中隐层数指的是总共曾数包含输出层,比如说异或算法为2层,第一层节点数为2,第二层也即输出层节点数为1,输入点数为2。但是该程序对异或算法实现并不理想,对多层多节点的神经网络有较好的结果。#include"iostream.h"#include#include#include#include#include"stdio.h"#defineMAXCOUNT1e5//迭
7、代训练次数上限//精度0.001的随机浮点数,范围在-0.5——0.5floatrandf(){return(float)((rand()%1001)*0.001f-0.5);}//高斯随机数产生函数doublegaussrand(){ staticdoubleV1,V2,S; staticintphase=0; doubleX; if(phase==0){ do{ doubleU1=(double)rand()/RAND_MAX; doubleU2=(double)rand()/
8、RAND_MAX; V1=2*U1-1; V2=2*U2-1; S=V1*V1+V2*V2; }while(S>=1
9、
10、S==0); X=V1*sqrt(-2*log(S)/S); }else X=V2*sqrt(-2*log(S)/S); phase=1-phase; return
此文档下载收益归作者所有