欢迎来到天天文库
浏览记录
ID:33540699
大小:203.52 KB
页数:5页
时间:2019-02-27
《基于神经网络的工业洗衣机模糊控制器的研究》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、第18卷第3期湖北工学院学报2003年6月Vol.18No.3JournalofhubeiPolytechnicuniversityJun.2003文章编号]1003-4684(2003)06-0039-03基于神经网络的工业洗衣机模糊控制器的研究周国柱!周红峰!杨光友"湖北工学院机械工程系!湖北武汉430068#摘要]讨论了一种基于模糊控制曲面的神经网络控制器的实现.将它与原先开发的模糊控制器进行了对比研究9可以取代原来的模糊控制器.通过改变样本点可以改善原来的模糊控制控制器9为提高工业洗衣器控制器的控制性
2、能提供了一种方法.关键词]神经网络;模糊控制;工业洗衣机中图分类号]TP273文献标识码]:A模糊控制器(FLC)是由一组一般为if-then"规布量浑浊度).输入层隐含层各有6个神经原9输则的语句来表征的.这些规则代表了专家的经验或出层有1个神经元.图1表示输入为布质和布量9输是对过程分析的总结.按照这些规则9FLC可以得出为主洗水位的神经网络结构.到控制系统的输入9来控制系统的输出.从更普遍的角度来看9控制器相当于一个函数发生器.它的输入来自传感器或其它的信息9输出则是需要的控制信号.于是9控制器扮演
3、的是描述输入与输出之间转换数学模型的函数.神经网络已经证明能够模拟各类型的函数9解决各种控制问题.所以9模糊控制器也可以用神经网络来实现.对于神经网络的多种形式9模糊逻辑也有不同的算法.神经网络和模糊逻辑的结合方式有许多种.1.2神经网络的激活函数选取和训练样本的确定[1]如B样条模糊神经网络径向基函数模糊神经网神经元的激活函数是典型的Sigmoid函数.神络等等.在本文中采用一种基于模糊控制曲面的BP经网络的训练采取的是有监督的训练9训练样本的神经网络9它能在一定的误差范围内逼近原先开发组成就是原先开发的
4、模糊控制器的输入和输出.因的模糊控制器9既能够继承原有模糊控制器的优点9为训练样本点本身不可能取为无限个9所以样本点又可以增加样本点对原来的控制规则进行修改.选取的是典型的输入输出值.例如可将布量变量对1BP神经网络对原有模糊控制器的应的语言为:少较少较多多9多的隶属函数值为逼近1的点9映射到神经网络的输入0 .33 .661.为使训练过程中反向传播梯度不接近零9将实际的输1.1神经网络的组成出映射到神经网络输出的最大和最小值映射为0.7[2-3]神经网络的输入是根据模糊算法来决定的.和0.39其
5、他的值可以线性地分布在这个区间内.在工业洗衣机中9决策主洗过清中和上浆柔化1.3神经网络的训练计算和其他处理水位的因素为布质和布量;决策洗涤转BP算法是一种!算法9是一种监督式的学习算速的因素为布质和布量;决策主洗时间和过清时间法9由两部分组成:1)信息的正向传递92)误差反向的因素为布量和浑浊度.所以构建这样的神经网络:传播.通过不断地在误差函数斜率下降方向上修改由3层BP网络组成9输入为2输入(布质布量或网络的权值和偏差9使样本的网络输出尽可能的接收稿日期]2002-12-08作者简介]周国柱(
6、1937-)9男9湖北武汉人9湖北工学院教授9研究方向:机电一体化9智能控制.40湖北工学院学报2003年第3期近期望的输出.低则可以适当加大学习速率9如果是不利于误差函1.3.1正向传递各层神经元的输出为数值的降低或引起误差函数值大的振荡9则适当减r少学习速率.这样可以使网络在不同的阶段自动设Oi=f(EIijPj+bi)9i=19299S.置不同大小的学习速率.具体的实现公式Cj=1其中CO为本层第i个神经元的输出9I为本层第iiij1.05(a)9E(a+1)7、连接权值9P为j#(a+1)=<0.7#(a)9E(a+1)>1.04E(a)9上层第j个神经元的输出9b为本层第i个神经元的i#(a)9其他.偏差9f为激活函数.其中如果没有上层神经元9则另外为了解决陷入局部最小值的问题9可采取Pi是神经网络的输入.附加动量法算法.该方法基于反向传播在每一个权1.3.2误差函数神经网络的训练可以在每一个值的变化上加上一项正比于前一次权值变化量的样本点输入后进行反向传播或在所有样本点输入后值9即C进行误差反向传播.前者的波动性比较大9后者的波"Iij(a+1)=(1-mc)"8、Iij+mc"Iij(a)9动性较小.本文选用后者9误差函数为"bi(a+1)=(1-mc)"bi+mc"bi(a).1rE=1(t)2.附加动量法实际上是通过一个动量因子mc将EEmi-Omi2m=0i=0上一次权值变化传递过来.当mc=0时就是梯度下其中C1是样本点个数9r为输出层神经元个数9tmi降法9当mc=1时梯度下降的影响没有了.Omi分别是样本输出和神经网络的输出.在实际的训练过程中
7、连接权值9P为j#(a+1)=<0.7#(a)9E(a+1)>1.04E(a)9上层第j个神经元的输出9b为本层第i个神经元的i#(a)9其他.偏差9f为激活函数.其中如果没有上层神经元9则另外为了解决陷入局部最小值的问题9可采取Pi是神经网络的输入.附加动量法算法.该方法基于反向传播在每一个权1.3.2误差函数神经网络的训练可以在每一个值的变化上加上一项正比于前一次权值变化量的样本点输入后进行反向传播或在所有样本点输入后值9即C进行误差反向传播.前者的波动性比较大9后者的波"Iij(a+1)=(1-mc)"
8、Iij+mc"Iij(a)9动性较小.本文选用后者9误差函数为"bi(a+1)=(1-mc)"bi+mc"bi(a).1rE=1(t)2.附加动量法实际上是通过一个动量因子mc将EEmi-Omi2m=0i=0上一次权值变化传递过来.当mc=0时就是梯度下其中C1是样本点个数9r为输出层神经元个数9tmi降法9当mc=1时梯度下降的影响没有了.Omi分别是样本输出和神经网络的输出.在实际的训练过程中
此文档下载收益归作者所有