《递推最小二乘辨识》-课件.ppt

  1. 1、本文档共33页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
递推最小二乘法(RLS) 上一节中已经给出了LS法的一次成批型算法,即在获得所有系统输入输出检测数据之后,利用LS估计式一次性计算出估计值. 成批型LS法在具体使用时不仅计算量大,占用内存多,而且不能很好适用于在线辨识. 随着控制科学和系统科学的发展,迫切需要发展一种递推参数估计算法,以能实现实时在线地进行辨识系统模型参数以供进行实时控制和预报,如 在线估计 自适应控制和预报 时变参数辨识 故障监测与诊断 仿真等. 递推辨识算法的思想可以概括成 新的参数估计值=旧的参数估计值+修正项 即新的递推参数估计值是在旧的递推估计值 的基础上修正而成,这就是递推的概念. 递推算法不仅可减少计算量和存储量,而且能实现在线实时辨识. 递推算法的特性 本讲主要讲授递推最小二乘(Recursive Least-square, RLS)法的思想及推导过程,主要内容为: 递推算法 加权RLS法和渐消记忆RLS法 1 递推算法 递推算法就是依时间顺序,每获得一次新的观测数据就修正一次参数估计值,随着时间的推移,便能获得满意的辨识结果. RLS法即为上一节的成批型LS算法的递推化,即将成批型LS算法化成依时间顺序递推计算即可。 该工作是1950年由Plackett完成的。 下面讨论无加权因素时的一般LS法的递推算法的推导. 即将成批型算法化 设在k-1时刻和k时刻,系统的参数估计结果为 仔细考察上述LS法,可以知道,该算法进行递推化的关键是算法中的矩阵求逆的递推计算问题. 因此,下面先讨论该逆矩阵的递推计算. 1 递推算法(4/12) 令 为便于逆矩阵递推算式的推导,下面引入如下矩阵反演公式(设A和C为可逆方阵) (A+BCD)-1=A-1-A-1B(C-1+DA-1B)-1DA-1 (4) 该公式可以证明如下:由于 (A+BCD)[A-1-A-1B(C-1+DA-1B)-1DA-1] =I-B(C-1+DA-1B)-1DA-1+BCDA-1 -BCDA-1B(C-1+DA-1B)-1DA-1 由式(3)和矩阵反演公式(4),可得P(k)的如下递推计算式 即 有时,为计算方便并便于理解,上述RLS估计算法又可表示为 值得指出的是矩阵P(k)是一个对称、非增的矩阵. 若在递推计算过程中破坏了P(k)的对称性,随着递推的推进,计算(辨识)误差将越来越大,并将导致辨识不一致收敛. 为了保证计算过程中P(k)矩阵始终是对称的,算法中的P(k)的计算可采用下面的计算式,以保证不破坏P(k)矩阵的对称性. C. 信号充分丰富与系统充分激励 对于所有学习系统与自适应系统,信号充分丰富(系统充分激励)是非常重要的. 若系统没有充分激励,则学习系统与自适应系统就不能一致收敛. 不一致收敛则意味着所建模型存在未建模动态或模型误差较大,这对模型的应用带来巨大隐患. 如对自适应控制,未建模动态可能导致系统崩溃. 为保证学习系统与自适应系统一致收敛,则所产生的系统的学习样本数据(系统输入输出信号)应具有尽可能多的模态,其频带要足够宽,而且其信号强度不能以指数律衰减. 这样才能保证系统具有充分激励,所测取的信号数据是充分丰富的,相关性矩阵P(k)不为病态. D. 数据饱和 在辨识递推计算过程中,协方差矩阵P(k)随着递推的进程将衰减很快,此时算法的增益矩阵K(k)也急剧衰减,使得新数据失去对参数估计值的修正能力. 这种现象称为数据饱和. 因此需要考虑修正方案,以保持新数据对参数估计值的一定的修正能力,使得能得到更准确的参数估计值,或能适应对慢时变参数的辨识. 避免数据饱和,适应慢时变参数的修正方案主要有: 遗忘因子法 通过对不同时刻的数据赋予一定的加权系数,使得对旧数据逐渐遗忘,加强新数据对当前辨识结果的影响,从而避免协方差矩阵P(k)与增益矩阵K(k)急剧衰减而失去对参数估计的修正能力,使算法始终保持较快的收敛速度. 遗忘因子法在后面将重点讨论. 协方差重调 即在指定的时刻重新调整协方差矩阵P(k)至某一给定值,避免协方差矩阵P(k)与增益矩阵K(k)急剧衰减而失去对参数估计的修正能力,使算法始终保持较快的收敛速度. 协方差修正 为了防止矩阵P(k)趋于零,当参数估计值超过某阈值时,矩阵P(k)自动加上附加项Q,避免协方差矩阵P(k)急剧衰减. 限定记忆法 限定记忆法依赖于有限长度的数据,每增加一个新的数据信息,就要去掉一个老数据的信息,数据长度始终保持不变. 限定记忆法通过两步递推过程来实现: 一步递推为将需要去掉的历史数据从辨识中通过递推来将其影响去掉. 另一步即为前面介绍的RLS,其作用为根据新数据进行递推辨识. 二、带遗忘因子的渐消记忆RLS法(4/5

文档评论(0)

沙卡娜 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档