好文档 - 专业文书写作范文服务资料分享网站

几种横向自适应滤波算法及其改进研究

天下 分享 时间: 加入收藏 我要投稿 点赞

图3.3为均方预测误差f2(n)与迭代次数n的关系图,其中?=0.05。由图3.1可见,LMS算法单一实现的学习曲线呈现严重噪声的形式。这幅图也包括100次独立实验后集平均得到的E[f2(n)]的相应图形。LMS算法学习曲线集平均的平滑效应体现的一清二楚。

图3.3 LMS算法的学习曲线

图3.4是在变步长参数?[所用的?为0.01、0.05、0.1]的情况下,LMS算法的学习曲线的图形。而且,集平均在100次独立试验后完成。

图3.4 不同步长对LMS算法收敛特性的影响

从图3.4可看到如下结果:

(1) 当步长参数?减小时,LMS算法的收敛率响应减小。 (2) 步长参数?减小也影响学习曲线的变化。 仿真(二):自适应均衡。

用于研究LMS算法性能的自适应均衡系统仿真模型如图2.9所示。仿真时,

信道采用升余弦脉冲响应来模拟[6]:

??2??0.5?1?cos?(n?2)?????h(n)????W???0?性。

n?1,2,3其他 (3-24)

该脉冲响应关于n?2对称。参数W是一个可调参数,调整W可以改变信道表3.1给出了自适应均衡器为11抽头,不同W对应的特征值分散。信道失真增大,特征值扩散度变大。

表3.1 W值与特征值分散的对应关系

W 2.9 0.3326 2.0120 6.0254 3.1 0.1852 2.0542 11.3256 3.3 0.1256 2.7264 21.0214 3.5 0.0502 2.5946 46.2178 ?min ?max ?(R)??max/?min 1 信道失真参数W(特征值扩散度)对系统的收敛性和稳态性的影响。 步长参数固定为?=0.075。选择这个值的根据是:?必须小于1?,其中

max?max表示相关矩阵R的最大特征值。对于每一个特征值扩散度,经过200次独立实验,通过瞬时均方误差e2(n)与n的关系曲线平均,可获得自适应滤波器集平均学习曲线。这个计算结果如图3.5所示。

特征值扩散度的影响2.521.5平均MSE?=46.21781?=21.0214?=11.32560.5?=6.02540050100150200250300迭代次数350400450500

图3.5 不同特征值扩散度对应的LMS算法的学习曲线

由图3.5可见,特征值扩散度变化范围的扩大降低了均衡器的收敛速率,同时也提高了平均平方误差的稳态值。例如,当?=6.0254时,自适应滤波器(R)以平方方式收敛大约要80次迭代,收敛后的稳态均方误差也是最小的;另一方面,当?=46.2178时(即均衡器输入处在不恰当的条件下),均衡器在均方(R)意义上收敛大约要200次,而且收敛后仍然出现大幅度震荡,迭代500次迭代后的稳态均方误差也也比较大。

2 迭代步长?对系统的收敛性和稳态性的影响

将特征值扩散度?固定为11.3256.步长参数分别取为0.075、0.025、(R)0.0075。.

图3.6示出计算的结果。与前面一样,每一条学习曲线都是瞬态均方误差

e2(n)与n的关系曲线经过200次独立试验后得到的集平均结果。

101100平均 MSE? = 0.007510-1? = 0.025? = 0.07510-210-30500迭代次数10001500

图3.6不同步长参数对应的LMS算法学习曲线

这个结果证明了自适应均衡器的收敛速率在很大程度取决于步长参数?。当步长参数较大时(如?=0.075),均衡器收敛到稳态需要120次迭代。当?较小时(如?=0.0075),收敛速率降低超过一个数量级。该结果也表明平均均方误差的稳态值随着?的变大而增大。

以上两个仿真实验充分证明了LMS算法的失调与自适应收敛过程之间存在着矛盾的结论。

3.4 LMS算法的改进

鉴于传统LMS算法的矛盾,人们对固定步长的LMS算法进行了各种各样的改进[10][11][12][13]。其中最简单的一种改进就是归一化LMS(NLMS)算法

3.4.1 归一化LMS算法

变步长LMS算法中一个典型的算法就是归一化最小均方误差(NLMS) 算法

[6]

,它是针对标准LMS算法的自身矛盾提出的改进,能有效地减小传统LMS算

法在收敛过程中对梯度噪声的放大作用,收敛速度也比LMS算法快。变步长

?(n)的更新公式可以写成:

W(n?1)?W(n)??(n)e(n)X(n)?W(n)??W(n) (3-25)

?式中,?W(n)??(n)e(n)X(n)表示滤波权矢量迭代更新的调整量。为了达到快速收敛的目的,必须选择合适的变步长?(n)的值,一个可能的策略是尽可能多的减小瞬时平方误差,即用瞬时平方误差作为均方误差MSE的简单估计,这也是LMS算法的基本思想。瞬时平方误差可以写成

e2(n)?[d(n)?X?(n)W(n)]2

?d2(n)?W?(n)X?(n)X(n)W(n)?2d(n)W?(n)X(n) (3-26)

?如果滤波权矢量的变化量W(n)?W(n)??W(n),则对应的平方误差e(n)可以由式(4-22)得到

'??2e(n)?e(n)?2?W(n)X(n)X?(n)W(n)

??W(n)X(n)X(n)?W(n)?2d(n)?W(n)X(n) (3-27)

在此情况下,瞬时平方误差的变化量?e(n)?e(n)?e2(n)

2?2???????22????2?W(n)X(n)e(n)??W(n)X(n)X(n)?W(n) (3-28)

把?W(n)??(n)e(n)X(n)的关系代入式(4-24),得到

?e2(n)??2?(n)e2(n)X?(n)X(n)??2(n)e2(n)[X?(n)X(n)]2 (3-29)

???????为了增加收敛速度,合适的选取?(n)使平方误差最小化,故将式(4-25)对变系数?(n)求偏导数,并令其等于零,得

?(n)?1 (3-30) ?X(n)X(n)这个步长值?(n)导致?e2(n)出现负值,这对应于?e2(n)的最小点,相当于平方误差e2(n)等于零。为了控制失调量,考虑到基于瞬时平方误差的导数不等于均方误差MSE求导数值,所以对LMS算法的更新迭代公式作如下修正:

W(n?1)?W(n)?ue(n)X(n) (3-31) ???X(n)X(n)式中?是一个很小的正常数,为防止X?(n)X(n)过小而引起步长过大,从而导致算法发散。u为一固定的收敛因子,0?u?2。这就是所谓的归一化LMS算法。 3.4.2 NVSSLMS算法

在NLMS基础上,Zayed Ramadan和Alexander Poularikas提出了一种归一化变步长LMS(NVSS)算法[14]。NVSS算法中步长迭代因子与误差量的欧式平方范数有关,可以使得在滤波过程开始阶段能有一个比较大的步长,随着迭代过程进行,步长减小并稳定在一个相当小的数值,提高了算法的收敛速度并减少了稳态误差。

其步长的迭代公式为:

?(n)?2n?1u (3-32)

1?u||e(n)||2上式中,||e(n)||??e2(n?k)为误差向量e(n)的欧式平方范数。固定值u需要精心选择,以便能够在快的收敛速度和小的稳态误差之间达到一种平衡。

下面是该算法的仿真。由于NVSS算法是针对NLMS改进的,所以我们用NLMS和LMS算法来做对比。仿真条件:参考输入信号x(n)为零均值,方差为1的高斯白噪声经系数不同的二阶AR模型。其中模型的系数为:a1=-1.5955,a2=0.95,自适应滤波器的阶数L=2;噪声信号v(n)与x(n)不相关的高斯白噪声,均值为零,方差为0.09(即SNR=10dB)。独立试验500次,每次采样1000点。NLMS算法中?=0.1,?=0.3。NVSS算法中u=0.1。仿真结果如图3.7所示:

各算法均方误差统计平均收敛曲线相比较10.90.80.7MSE(归一化)k?00.60.50.40.30.20.100100200300400500600迭代次数7008009001000NVSSNLMSLMS

几种横向自适应滤波算法及其改进研究

图3.3为均方预测误差f2(n)与迭代次数n的关系图,其中?=0.05。由图3.1可见,LMS算法单一实现的学习曲线呈现严重噪声的形式。这幅图也包括100次独立实验后集平均得到的E[f2(n)]的相应图形。LMS算法学习曲线集平均的平滑效应体现的一清二楚。图3.3LMS算法的学习曲线图3.4是在变步长参数?[所用的?为0.01、0.05、0.
推荐度:
点击下载文档文档为doc格式
5u9ke0locl97tl37kuug5o77k30e8m00qtx
领取福利

微信扫码领取福利

微信扫码分享