第5章最小二乘类辨识算法2.ppt

第5章最小二乘类辨识算法2.ppt

ID:59953820

大小:2.54 MB

页数:134页

时间:2020-11-29

第5章最小二乘类辨识算法2.ppt_第1页
第5章最小二乘类辨识算法2.ppt_第2页
第5章最小二乘类辨识算法2.ppt_第3页
第5章最小二乘类辨识算法2.ppt_第4页
第5章最小二乘类辨识算法2.ppt_第5页
资源描述:

《第5章最小二乘类辨识算法2.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、1第5章 最小二乘类参数辨识方法25.1自适应辨识算法最小二乘算法存在着两方面的缺陷(1)当模型噪声是有色噪声时,最小二乘参数估计不是无偏一致估计。(2)随着数据的增长,最小二乘法将出现数据饱和现象,这是由于增益矩阵K(k)随着k的增加将逐渐趋近于零,以致递推算法慢慢失去修正能力。3针对这些现象提出了一些修正算法解决数据饱和问题介绍两种方法遗忘因子法限定记忆法(RWLS-RegressiveWeightedLeastSquare):(1)根据一批数据,利用一次完成算法,预先求得(2)直接给定初始值,a-充分大的

2、实数,-充分小的实向量5根据定义,是正定的,则也是正定的,那么有:即6可见P(k)是递减的正定矩阵,当,所以增益矩阵K(k)随着k的增加将逐渐趋于0向量,从而使RLS算法失去修正能力。7当k较大时,P(k)的所有元素都变得很小,不仅新数据所含的信息对改进参数估计不起作用,而且由于计算机的误差,反而使P(k)矩阵失去正定性,甚至破坏对称性,造成参数估计值偏离真值越来越大。85.1.1遗忘因子法针对以下模型将其写成最小二乘格式L-数据长度(1)(2)(3)10数据加上衰减因子()后记作所以(4)(5)(6)则11仍为

3、白噪声向量可得一次完成算法为(7)12递推算法为(8)(9)式中遗忘因子可按下面的原则取值:①若要求步后数据衰减至36%,则;②取作时变因子,其中。遗忘因子的取值大小对算法的性能会产生直接的影响。值增加时,算法的跟踪能力下降,但算法的鲁棒性增强;值减少时,算法的跟踪能力增强,但算法的鲁棒性下降,对噪声更显得敏感。13问题讨论(1)残差与新息的关系或14(2)准则函数的递推计算15遗忘因子LS法和加权RLS算法主要的差别:加权方式不同加权RLS法各时刻权重是不相关的,也不随时间变化;遗忘因子法各时刻权重是有关联的,

4、各时刻权重的大小随时间变化.加权的效果不一样加权RLS法获得的是系统的平均特性;遗忘因子法能实时跟踪系统明显的变化,对系统的时变特性具有跟踪能力.175.1.2限定记忆法限定记忆法的参数估计值始终依赖于有限个最新数据所提供的信息,每增加一个新数据,就去掉一个老数据,数据长度始终不变。特点离现时刻L以前的老数据所含的信息从算法中彻底抛除18a为充分大的数,充分小的实向量L为数据长度(10)(11)相应的准则函数递推计算式为其中1920a为充分大的数,充分小的实向量(2)利用最小二乘递推算法,获得初步的参数估计值和P

5、阵,作为RFM递推算法的初始状态和。(3)每获得一组新的数据就利用递推算法的后三式计算和,再利用前三式计算和。如此不断迭代,可获得最终的辨识结果。后三式用来增加新数据的信息,前三式则用于去掉老数据的信息。a为充分大的数,充分小的实向量②利用最小二乘递推算法,获得初步的估计值和P矩阵,作为REM递推的初始状态①22(10)(11)③④235.2偏差补偿最小二乘法若噪声为有色噪声则最小二乘法是有偏的,故提出称为偏差补偿最小二乘法过程和是过程的输入和输出;是输出测量值;是均值为零,方差为的不相关随机测量噪声。24当过程

6、的模型取测量方程为式中(12)(13)(14)对模型(13),参数的最小二乘估计量为模型(13)可以写为26两边同取极限,得28上式第一项趋于0,第二项将收敛于29所以有其中(15)(16)(17)30引入补偿项,则参数的估计值可以写成:其中P(k)定义为为噪声w(k)的方差的估计值(18)(19)31偏差补偿最小二乘递推算法(20)32(21)335.3增广最小二乘算法假设过程采用以下模型式中u(k)和z(k)分别为模型输入和输出变量;v(k)是均值为零、方差为的不相关随机噪声或称白噪声;为噪声模型;和为迟延算

7、子多项式,记作(22)(23)其中na和nb为模型阶次。为了运用最小二乘原理来辨识这种模型的参数,需要把上述模型写成最小二乘格式这样就必须把噪声模型的参数包含在参数向量中,从而引出增广概念,用来构造上式的参数向量和数据向量,具体的构成形式会因噪声模型的结构不同而不同。下面是三种不同噪声模型的向量构成方法:①若可按下式构成参数向量和数据向量:②若参数向量和数据向量的构成形式为:③若参数向量和数据向量的构成形式为:以上这种构成参数向量和数据向量的思想就是所谓的增广原理,它是增广最小二乘法的根本。40令则(24)(25

8、)针对如下模型41v(k)-白噪声因h(k)中含v(k-1)则令或新息残差(26)(27)(28)42则增广最小二乘算法(RELS)为(29)或RELS算法是RLS算法的推广,只是信息向量和参数向量中分别增加了噪声模型的信息和参数;RELS算法同样可引入遗忘因子,构成相应的遗忘因子最小二乘算法。43445.4广义最小二乘法假定过程模型为其中u(k)和z(k)表示过程的输入

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。