神经网络的控制设计

神经网络的控制设计

ID:7824332

大小:302.00 KB

页数:10页

时间:2018-02-27

神经网络的控制设计_第1页
神经网络的控制设计_第2页
神经网络的控制设计_第3页
神经网络的控制设计_第4页
神经网络的控制设计_第5页
资源描述:

《神经网络的控制设计》由会员上传分享,免费在线阅读,更多相关内容在行业资料-天天文库

1、x=0:0.01:3y=3*sin(x)+0.1*rand(1,length(x))针对前述函数,建立一个单输入单输出的3层BP网络,并撰写报告,激励函数等可自行选择:要求:神经网络输出与函数输出的误差应小于某小值;由于所给函数x取值范围是[03],而题目要求输入输出样本集x取值范围应该覆盖0度到360度。所以x在[32*pi]内,应观察已训练好的神经网络是否满足目标函数,以此检验训练完的网络。建立网络与参数设置一、先分析几个常用的激励函数(1)logsig对数S型(sigmoid)传递函数,它可以将神经元的输入范围是(-∞,+∞)映射到(0,1)的区

2、间上,它是可微函数,其表达式为:y=1/1+e-x。(2)tansig双曲正切S型(sigmoid)传递函数,它可以将神经元的输入范围(-∞,+∞)映射到(-1,+1)的区间上,它是可微函数。对logsig传递函数而言,输出范围是(0,1),对tansig传递函数而言,输出范围是(-1,1)。如果是purelin型神经元,则整个网络的输出可以是任意值。对三层BP网络而言,如果最后一层是sigmoid型神经元,那么整个网络的输出就限制在一个较小的范围内。我们选择purelin函数作为输出层神经元的激励函数,tansig函数作为隐层神经元的激励函数。二、学

3、习算法BP算法的主要缺点是:收敛速度慢,局部极值、难以确定隐层结点个数。改进主要有两种途径:一种是采用启发式学习算法,另一种是采用更有效的优化算法。启发式算法主要体现在函数梯度上,包括有动量的梯度下降法、自适应lc的梯度下降法、有动量和自适应lc的梯度下降法和能复位的BP训练法。基于数值优化的训练方法有三种:共轭梯度法、高斯牛顿法和Levevberg-Marquardt法。由于trainlm具有收敛快,误差小的优点,且本实验中数据量不算大,故我们这里采trainlm学习算法。,误差小的优点,且本实验中数据量不算大,故我们这里用trainlm学习算法。各

4、个算法特点见表1表1学习算法适用问题类型收敛性能占用存储空间其它特点trainlm函数拟合收敛快误差小大性能随网络规模增大而变差trainrp模式分类收敛最快较小性能随网络训练误差减小而变差trainscg函数拟合模式分类收敛较快性能稳定中等尤其适用于网络规模较大的情况trainbfg函数拟合收敛较快较大计算量随网络规模的增大呈几何增长traingdx模式分类收敛较慢较小适用于提前停止的方法三、节点数隐层节点数的确定是神经网络设计中非常重要的一个环节,一个具有无限隐层节点的两层BP网络可以实现任意从输入到输出的非线性映射。一般认为,隐层节点数与求解问题

5、的要求、输入输出单元数多少都有直接的关系。而且,隐层节点数过少,则无法产生足够的连接权组合数来满足若干样本的学习;隐层节点数过多,则学习以后网络的泛化能力变差。确定隐层的节点数有如下几种方法:(1)如果要求逼近的样函数变化剧烈、波动很大,则要求可调整地连接权数多,从而隐层的节点数也应该多一些;(2)如果规定的逼近精度高,则隐含层单元数也应该多一些;(3)可考虑开始时放入较少的隐含层单元,根据以后的学习情况逐渐增加;总之,若隐层节点数太少,网络可能根本不能训练或网络性能很差;若隐层节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方

6、面,训练容易陷入局部极小点而得不到最优点,也是训练时出现“过拟合”的内在原因。因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩张法确定。隐层的节点数与求解问题的要求,输入输出单元数多少有关。对于模式识别/分类的节点数可按下列公式设计其中n为输入节点数目;m为输出节点数目;a为1-10之间的常数。这里n为1,m为1,N应为3-12。不妨设为10。四、它参数设置(1)步长:步长,即学习速率,它决定每一次循环训练中所产生的权值变化量。步长太小,收敛就非常慢。步长太大,可能会导致网络的瘫痪和不稳定。这里我们令lr为0.01。(

7、2)结束参数:设置最大重复次数epochs为10000次,精度goal达到0.0001。精度过高时收敛过快。五、实验过程及结果学习前(选择初始权值时)神经网络的输出曲线与实际函数的曲线对比图图1学习前输出曲学习后(选择初始权值时)神经网络的输出曲线与实际函数的曲线对比图图2学习后输出曲线图3误差的变化曲线图六、各个参数对网络的影响1、神经元数目N不同图4N=5时网络输出图5N=50时网络输出增加隐层节点数对改进逼近效果的作用并不很明显。但是增加隐层节点会增加精度、增加训练时间,在本题中N为10时,用时36s;N为50时,所用时间为266s;N为5时,所

8、用时间为21s2.步长不同图6、图7、图8分别为lr为0.001、0.01、0.1的误差曲线图

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。