学习神经网络的好助手.docx

学习神经网络的好助手.docx

ID:59207912

大小:66.24 KB

页数:5页

时间:2020-09-10

学习神经网络的好助手.docx_第1页
学习神经网络的好助手.docx_第2页
学习神经网络的好助手.docx_第3页
学习神经网络的好助手.docx_第4页
学习神经网络的好助手.docx_第5页
资源描述:

《学习神经网络的好助手.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、学习神经网络的好助手,可以仿照其中的代码,只需要修改个别参数便可以轻易实现自己需要完成的任务。1.BP网络构建(1)生成BP网络Net=newff(PR,

2、S1S2…SN

3、,{TF1TF2…TFNl},BTF,BLF,PF)PR:由R维的输入样本最小最大值构成的RX2维矩阵。[S1S2…SNl]:各层的神经元个数。{TF1TF2…TFNl}}:各层的神经元传递函数。BTF:表示网络的训练函数。默认为‘trainlm’BLF:表示网络的权值学习函数。默认为‘learngdm’PF:表示性能数,默认为‘mse’(2

4、)网络训练[net,tr,Y,E,Pf,Af]=train(net,P,T,PiAi,VV,TV)(3)网络仿真[Y,Pf,Af,E,,Perf]=sim(net,P,Pi,Ai,T)BP网络的训练函数训练方法训练函数梯度下降法trainged有动量的梯度下降法Traingdm有适应lr的梯度下降法Traingda有适应lr的动量梯度下降法Traingdx弹性梯度下降法TrainrpFletcher-Reeves共轭梯度法TraincgfPloak-Bibiere共轭梯度法TraincgpPowell-Beal

5、e共轭梯度法Traincgd量化共轭梯度法Trainscp拟牛顿算法Trainbfg一步正割算法TrainossLevenberg-MarquardttrainlmBP网络训练参数训练参数参数介绍训练参数net,trainParam.epochs最大训练次数(缺省为10)TraingedTraingdmTraingdaTraingdxTrainrpTraincgfTraincgpTraincgdTrainscpTrainbfgTrainossTrainlmnet,trainParam.goal训练要求精度(缺省

6、为0)TraingedTraingdmTraingdaTraingdxTrainrpTraincgfTraincgpTraincgdTrainscpTrainbfgTrainossTrainlmnet,trainParam.lr学习率(缺省为0.01)12个,同上net,trainParam.max_fail最大失败次数(缺省为5)12个,同上net,trainParam.min_grad最小梯度要求(缺省为1e-10)12个,同上net,trainParam.show显示训练迭代过程(NaN表示不显示,缺省为

7、25)12个,同上net,trainParam.time最大训练时间(缺省为inf)12个,同上net,trainParam.mc动量因子(缺省为0.9)traindm,traindxnet,trainParam.lr_inc学习率lr增长比(缺省为1.05)trainda,traindxnet,trainParam.lr_dec学习率lr下降比(缺省为0.7)trainda,traindxnet,trainParam.max_perf_inc表现函数增加最大比(缺省为1.04)trainda,traindxn

8、et,trainParam.delt_inc权值变化增加量(缺省为1.2)trainrpnet,trainParam.delt_dec权值变化减小量(缺省为0.5)trainrpnet,trainParam.delt_0初始权值变化(缺省为0.07)trainrpnet,trainParam.delt_amax权值变化最大值(缺省为50.0)trainrpnet,trainParam.searchFcn一维线性搜索方法(缺省为srchcha)traincgftraincgptraincgbtrainbfgtra

9、inossnet,trainParam.sigma因为二次求导对权值调整的影响参数(缺省为5.0e-5)trainscgnet,trainParam.lambdaHessian矩阵不确定性调节参数(缺省为5.0e-7)trainscgnet,trainParam.men_reduc控制计算机内存/速度的参数,内存较大设为1,否则设为2(缺省为1)trainlmnet,trainParam.mum的初始值(缺省为0.01)trainlmnet,trainParam.mu_decm的减小率(缺省为0.1)train

10、lmnet,trainParam.mu_incm的增长率(缺省为10)trainlmnet,trainParam.mu_maxm的最大值(缺省为1e10)trainlm2,BP网络举例例一%traingdclear;clc;p=[-1-1224;05057];T=[-1-111-1]%利用minmax函数求输入样本范围net=newff(minmax(p),[5,1],{‘tansig

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。