adaline地lms算法

adaline地lms算法

ID:30209465

大小:706.26 KB

页数:16页

时间:2018-12-27

adaline地lms算法_第1页
adaline地lms算法_第2页
adaline地lms算法_第3页
adaline地lms算法_第4页
adaline地lms算法_第5页
资源描述:

《adaline地lms算法》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、《神经网络导论》实验报告-Adaline的LMS算法专业:信息与通信工程班级:5030班学号:3115091011姓名:王静《神经网络导论》实验一Adaline的LMS算法一、实验目的1、通过实验了解Adaline的工作原理2、对比LMS的三种算法,并通过上机实验掌握具体实现方法3、与采用硬限幅函数的单个神经元模型进行对比,比较其异同二、实验原理采用硬限幅函数的单个神经元,通过简单的学习算法,可以成功实现两类线性可分类的分类功能。但对于大多数的非线性可分类来说,则无法完成分类功能,为此我们转而采用具有线性功能函数的神经元Adaline(AdaptiveLinearElement)方法。设输

2、入矢量X=[x1,x2,…,xN],加权矢量W=[w1,w2,…,wN],则神经元的输出可以通过下式来计算:I=WXT=XWTy=fI=WXT=XWT(1)要实现Adaline的分类功能,按照最小二乘法的统计意义而言,就是要求所有样本的实际输出值与理想预期值之间的误差的均方值最小。设输入观察矢量X的期望输出是d,当权向量为W时的实际输出是y,定义ε=d-y。考虑所有可能出现样本的均方误差:Eε2=E[(d-y)2](2)将(1)式代入,可得:Eε2=Ed2+WRWT-2PWT(3)其中,R≜E[XTX]是输入向量的自相关矩阵,P≜E[dX]是输入向量与期望输出的互相关向量。由(3)式可知必

3、定存在最佳的加权矢量W*使均方误差达到最小,对(3)式求梯度可得:∇wEε2=2WR-2P(4)由(4)式可解最优权向量:W*=PR-1(5)(5)式给出了求最佳加权矢量的方法,但是需要做大量的统计计算,而且当输入矢量X的维数很大时,需要解决高阶矩阵求逆的问题,这些都是非常困难的。于是我们给出下面三种递推求解的方法。2.1LMS学习问题的严格递推学习算法1.任意设置初始权向量W(0);2.对于每一个时序变量k,按下式调整权向量W:Wk+1=Wk+α-∇wEε2(k),k=1,2,…(6)(6)式的含义为,应该向梯度的负方向调整加权向量W(k),只要选定合适的步幅系数α就能保证学习的收敛性。

4、求出(6)式中的梯度:∇w=-2Eε(k)X(k)(7)于是(6)式变为:Wk+1=Wk+2αEε(k)X(k)(8)用这种方法可以保证求得严格的最佳解,而且避开了矩阵求逆的困难,但学习过程中的每一步仍需完成大量的统计计算,统计计算的困难尚需解决。2.2LMS学习问题的随机逼近算法将(8)是修正为如下形式:Wk+1=Wk+2αε(k)X(k)(9)即得到随机逼近算法,与其严格递推算法的区别在于:用ε(k)X(k)代替Eε(k)X(k),由此避免了统计计算的困难,但同时也给加权矢量的变化趋势带来了随机性。2.3LMS学习问题的基于统计的算法这是一种具有一定统计特性的学习算法假设学习进行到第k

5、步时,可能出现的样本有P个,分别用XP(k)表示,下标p=1,2,…P表示在第k步学习过程中可能出现的不同样本编号。第p个样本的理想输出和实际输出分别用dpk和yp(k)表示。我们定义“误差平方和”J(k)如下:J(k)=1PPεP2(k)(10)其中εpk=dpk-ypk,∇wJ(k)相对于W的梯度为:∇wJ(k)=-2ppεpkXp(k)(11)令误差朝J(k)减小的方向调整,可得如下递推算法:Wk+1=Wk+2αppεpkXp(k)](12)当P的数量非常大,使上式右端的求和项足以代表输入的统计特性时,(12)式与(8)式(严格递推算法)一致,当P取1时,(12)式与(9)式(随机逼

6、近算法)一致。三、实验内容及步骤3.1LMS算法根据实验原理,R≜E[XTX]即输入矢量的自相关阵,可得:P≜E[dX]是输入向量与期望输出的互相关向量,可得:最佳权向量W*=PR-1,则有:档W=W*时,均方误差取得最小值:可得:Eε2min=Emin=Ed2-PW*T=0.26233.2随机逼近算法随机逼近算法,根据给出的权向量初始值,每步从样本中随机的选择一个,按照迭代公式(9),计算下一步的权向量,根据计算出的权向量,计算此时系统的输出矢量Y,与理想输出比较,得到此时系统的均方误差,若均方误差满足要求,则迭代结束,否则再选择样本进行训练。下图为随机逼近算法的简单结构框图:按照式(9

7、)计算W(k+1)计算Eε2=Ed-y2计算输出Y=W*XTEε2-Emin>0.001随机选择一个样本结束NY随机逼近算法框图其中,步幅系数α=0.01,加权系数的初始值选择为W(1)=[0.1,0.1],学习结束的条件为随机逼近算法的均方误差Eε2≤Emin+0.001图1α=0.01时,均方误差随训练次数的变化曲线迭代结束后,随机逼近算法计算出的加权系数矩阵:W=[0.3793,0.3257]如图1所示为实验结果。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。