欢迎来到天天文库
浏览记录
ID:29041068
大小:80.04 KB
页数:4页
时间:2018-12-16
《2自适应lms算法地地地研究》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、实用标准文案2自适应LMS算法的研究2.1概述自适应算法中使用最广的是下降算法,下降算法的实现方式有两种:自适应梯度算法和自适应高斯一牛顿算法。自适应高斯一牛顿算法包括RLS算法及其变型和改进型,自适应梯度算法包括LMS算法及其变型和改进型e(n)u(n)u(n-2)Wb(0)Wb(1)Wb(m-2)Wb(2)Wb(m-1)u(n-M+2)u(n-M+1)Z-1Z-1Z-1∑∑∑∑∑y(n)d(n)图2.1FIR滤波器的自适应实现滤波器设计准则是使滤波器实际输出y(n)与期望响应d(n)之间的均方误差J(n)为最小,这称为最小均方误差(MM
2、SE)准则。图2.1为FIR滤波器的自适应实现的原理图。所谓自适应实现是指:M阶FIR滤波器的抽头权系数w0,w1,…wm-1,可以根据估计误差e(n)的大小自动调节,使得某个代价函数最小。定义均方误差J(n)为代价函数,因为滤波器在n时刻的估计误差e(n)=d(n)-WT(n)u(n)(2.1)所以代价函数J(n)=E{d2(n)-2PTW(n)+WT(n)E[u(n)uT(n)]W(N)}P=E[d(n)u(n)]由此可得J(n)的梯度(具体推导见参考文献[1」)▽J(n)=2E[u(n)uT(n)]W(n)-2P(2.3)2.2LMS
3、算法及其基本变型精彩文档实用标准文案自适应算法中最常用的下降算法为最陡下降算法,其更新方向向量取第n次迭代的代价函数J(n)的负梯度它的统一形式为w(n+1)=w(n)-μ▽J(n)式中w(n)为第n次迭代的权向量,-▽J(n)为第n次迭代的更新方向向量,μ为第n次迭代的更新步长,它用来控制稳定性和收敛速度。若将▽J(n)中的真实梯度向量用瞬时梯度向量代替,我们可得到由Windrow和Hoff在60年代初提出的著名的最小均方误差自适应算法(简称LMS算法):w(n+1)=w(n)+2μe(n)u(n)(2.5)上式表明,LMS算法是一种递归
4、运算,它不需要对信号的统计特性有先验的了解,而只是使用它们的瞬时估计值,运算得到的只是权重系数的估计值,但随着时间的增加,权重系数逐步调整,估计值也逐步改善,最终得到收敛值。收敛的条件是:(2.6)图2.2w(n)的自适应调整过程式中的输入和输出采样需要作大约2N+1次乘一加运算。是输入数据协方差矩阵的本征值。实际上,w(n)永远不会收敛到理论上的最佳值,而是在最佳精彩文档实用标准文案值上下振荡,如图2.2所示。μ值控制了自适应的“增益”,它的大小应该在算法的收敛性能和系数的振荡幅度这两个因素之间折中。LMS算法简单而且易于实现,,是许多实
5、时应用的首选算法,它对每一次新的输入和输出采样需要作大约2N+1次乘-加运算。2.2.1基本LMS算法其运算步骤如下:①初始化设置w(n)(n=o,1,2,…,N-1)为任意值(一般均为零),然后对每一次采样作以下各步的循环运算:②计算滤波器输出:③计算估计误差:e(n)=d(n)-y(n)④更新N个滤波器权重系数:w(n)=w(n-1)+2μu(n)e(n)(n=0,1,2,…,N-1)⑤循环返回到②。图2.3基本LMS算法的学习曲线式中w(n)为抽头权向量,e(n)为滤波器在n时刻的估计误差,μ为常数,d(n)为精彩文档实用标准文案期望
6、响应,当期望信号未知时,可直接用滤波器的实际输出y(n)代替d(n),u(n)为输入信号。精彩文档
此文档下载收益归作者所有