自适应滤波:递归最小二乘
作者:桂。
时间:2017-04-04 15:51:03
链接:http://www.cnblogs.com/xingshansi/p/6664478.html
声明:欢迎被转载,不过记得注明出处哦~
【读书笔记12】
前言
西蒙.赫金的《自适应滤波器原理》第四版第九章:递归最小二乘(Recursive least squares, RLS)。记得看完第一章之后,半个月没有碰这本书,后来想着开了个头,还是该看到第十章的卡尔曼滤波才好,前前后后又花了半个月,总算看到了第九章。回头看看,静下心来,确实容易理清思路,也学到不少知识。虽然前路漫漫,编程水平不够、机器学习的理论还没多少概念、算法基础没多少、收入也很微薄......不过还是该表扬一下自己。既然选择了道路,自己还是该耐心走下去,哪怕上不了山顶,也该看看高处的风景。
言归正传,本文主要包括:
1)RLS原理介绍;
2)RLS应用实例;
内容为自己的学习记录,其中多有借鉴他人的地方,最后一并给出链接。
一、RLS原理介绍
A-问题描述
考虑指数加权的优化问题:
$0 < \lambda \le 1$为遗忘因子,这里只讨论平稳情况,取$\lambda = 1$。
从而得到最优解:
其中:
可以看到,$\lambda = 1$对应的就是最小二乘思想。回头看看之前分析的LMS以及NLMS,用的是随机梯度下降的思想,这是RLS与LMS很明显的不同点。
由于$x(i)$、$y(i)$时刻在变换,最优解如何更新呢?
B-迭代更新
首先给出文中用到的矩阵求逆引理:
矩阵求逆引理:
定义逆矩阵:
利用矩阵求逆引理:
其中$k(n)$称为增益向量,由上式得出:
借助迭代:
可以得到权重的更新公式:
其中为估计误差:
至此实现RLS的整个步骤。
二、RLS应用实例
A-算法步骤
结合上文的推导,给出RLS的迭代步骤:
步骤一:初始化
其中$\delta $为很小的正数,如1e-7;
步骤二:迭代更新
B-代码应用
给出主要代码,可以结合前文的LMS/NLMS对比分析:
function [e,w]=rls(lambda,M,u,d,delta) % recursive least squares,rls. % Call: % [e,w]=rls(lambda,M,u,d,delta) % % Input arguments: % lambda = constant, (0,1] % M = filter length, dim 1x1 % u = input signal, dim Nx1 % d = desired signal, dim Nx1 % delta = constant for initializaton, suggest 1e-7. % % Output arguments: % e = estimation error, dim Nx1 % w = final filter coefficients, dim Mx1 % Step1:initialize % 2017-4-4 14:34:33, Author: Gui w=zeros(M,1); P=eye(M)/delta; u=u(:); d=d(:); % input signal length N=length(u); % error vector e=d.'; % Step2: Loop, RLS for n=M:N uvec=u(n:-1:n-M+1); e(n)=d(n)-w'*uvec; k=lambda^(-1)*P*uvec/(1+lambda^(-1)*uvec'*P*uvec); P=lambda^(-1)*P-lambda^(-1)*k*uvec'*P; w=w+k*conj(e(n)); end
给出应用:
[s, fs, bits] = wavread(filename); s=s-mean(s); s=s/max(abs(s)); N=length(s); time=(0:N-1)/fs; clean=s'; ref_noise=.1*randn(1,length(s)); mixed = clean+ref_noise; mu=0.05;M=2;espon=1e-4; % [en,wn,yn]=lmsFunc(mu,M,ref_noise,mixed); % [en,wn,yn]=nlmsFunc(mu,M,ref_noise,mixed,espon); delta = 1e-7; lambda = 1; [en,w]=rls(lambda,M,ref_noise,mixed,delta);
对应结果图:
可以看出不像NLMS/LMS有一个慢速收敛的过程,RLS在开始阶段就得到较好的降噪。
C-与LMS对比
与LMS对比,可以观察到RLS的几点特性:
- 平稳环境λ=1,其实是最小二乘的思想;LMS/NLMS是随机梯度下降思想;
- 最小二乘是直接得出结果,随机梯度下降收敛慢,因此RLS比LMS/NLMS收敛快一个数量级;
参考:
- Simon Haykin 《Adaptive Filter Theory Fourth Edition》.