欢迎来到天天文库
浏览记录
ID:41831074
大小:168.22 KB
页数:3页
时间:2019-09-03
《2自适应LMS算法的研究》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、2自适应LMS算法的研究2.1概述自适应算法屮使用最广的是下降算法,下降算法的实现方式冇两种:自适应梯度算法和口适应高斯一牛顿算法。口适应高斯一牛顿算法包括RLS算法及其变型和改进型,自适应梯度算法包括LMS算法及其变型和改进型e(n)图2」FIR滤波器的自适应实现滤波器设计准则是使滤波器实际输岀y(n)与期望响应d(n)Z间的均方误差J(n)为最小,这称为最小均方误差(MMSE)准则。图2.1为FIR滤波器的自适应实现的原理图。所谓自适应实现是指:M阶FIR滤波器的抽头权系数wo,wi,…Wn“,可以根据估计误差e(n)的大小自动调节,使
2、得某个代价函数最小。定义均方误差J(n)为代价函数,因为滤波器在n时刻的估计误差e(n)=d(n)-WT(n)u(n)(2.1)所以代价函数J(n)二E{d2(n)・2P「W(n)+wT(n)E[u(n)uT(n)]W(N)}P=E[d(n)u(n)]由此可得J(n)的梯度(具体推导见参考文献[1」)Vj(n)=2E[u(n)uT(n)]W(n)-2P(2.3)2.2LMS算法及其基本变型自适应算法屮最常用的下降算法为最陡下降算法,其更新方向向量取第n次迭代的代价函数J(n)的负梯度它的统一形式为w(n+l)=w(n)-uVj(n)式中w(
3、n)为第n次迭代的权向量,■▽J(n)为第n次迭代的更新方向向量,〃为第n次迭代的更新步长,它用来控制稳定性和收敛速度。若将▽J(n)中的真实梯度向量用瞬时梯度向量代替,我们可得到由Windrow和Hoff在60年代初提岀的著名的最小均方误差自适应算法(简称LMS算法):wg+1)=w(n)4-2//e(n)u(n)(2.5)上式表明,LMS算法是一种递归运算,它不需要对信号的统计特性有先验的了解,而只是使用它们的瞬时估计值,运算得到的只是权重系数的估计值,但随着时间的增加,权重系数逐步调整,估计值也逐步改善,最终得到收敛值。收敛的条件是:
4、(2.6)'max式中人疵的输入和输出采样需要作大约2N+1次乘一加运算。是输入数据协方差矩阵的本征值。实际上,w(n)永远不会收敛到理论上的最佳值,而是在最佳值上下振荡,如图2.2所示。卩值控制了门适应的“增益”,它的大小应该在算法的收敛性能和系数的振荡幅度这两个因素Z间折屮。LMS算法简单而且易于实现,,是许多实时应用的首选算法,它对每一次新的输入和输出采样需要作人约2N+1次乘■加运算。2.2.1基木LMS算法其运算步骤如下:①初始化设置w(n)(n=o,1,2,…,N・l)为任意值(一般均为零),然后对每一次采样作以下各步的循环运算
5、:N-I②计算滤波器输出:)心)=VV(??)W(/2-Z)/=1③计算估计误差:e(n)=d(n)・y(n)④更新N个滤波器权重系数:w(n)=w(n-l)+2uu(n)e(n)(n=O,1,2,…,N-1)⑤循环返冋到②。图2.3基木LMS算法的学习曲线式中w(n)为抽头权向量,e(n)为滤波器在n时刻的估计误差,U为常数,d(n)为期望响应,当期望信号未知时,可直接用滤波器的实际输出y(n)代替d(n),u(n)为输入信号。
此文档下载收益归作者所有