Chapter 7:Statistical-Model-Based Methods

作者:桂。

时间:2017-05-25  10:14:21

主要是《Speech enhancement: theory and practice》的读书笔记,全部内容可以点击这里

书中代码:http://pan.baidu.com/s/1hsj4Wlu,提取密码:9dmi


前言

  最近学习有一点体会,每一个学科的理论模型都提供了解决问题的思路,一个没有受过教育又迷信权威的头脑,难以从抽象的角度去认识、理解问题,自然科学传递了这样一套思维。例如之前的谱减法,就是具体问题具体分析;维纳滤波,表达了复盘、以及反馈总结的重要性;这一章的统计模型,表达了对于不善于长期记忆的人类,借助历史信息可以获得更多的益处。总结一下,这些模型都表明:认识问题要经过感性-理性-感性的往复过程,很难有一劳永逸的方法,这也提醒思考的时候要小心、并保持客观(因为总有新问题),避免陷入刚愎自用的误区,同时也不必灰心丧气,从Ada-boost的角度来看,任何弱分类器都可以组合成强分类器,自己/他人的经历、经验增加(无论真假,只要努力推理出真与假的倾向),一个基本事实是:合理利用这些信息,总会让人更接近事实真相。具体来说,对于语音降噪,都有:意识到问题——拆解并解决问题 的步骤,这也说明了一个现象:学习、记忆、认知,这些 靠眼耳鼻舌身意 直观接受的过程,如果二次加工,那么效果将会进一步提升。

  这一章主要是利用统计模型,细节处打算跳过,主要是三种模型:最大似然估计ML、最小均方误差估计MMSE、最大后验估计MAP。

一、最大似然估计:MAXIMUM-LIKELIHOOD ESTIMATORS

  A-最大似然估计

加性噪声模型

写成幅频形式

为了求解,给出两点假设:1)虽然未知,但是确定信号,而不是随机信号;2)噪声是复高斯分布,且实部、虚部的方差相同;

这个求解比较复杂,且仍然可以用带噪声的相位近似,这样一来就是无关紧要的了,可以对上面的式子进一步处理:

这里是未知的,这里强行用了另一个约束:在没有先验的情况下,均匀分布信息量最大,也就是不确定性最大,这也符合没有先验之一预期,从而

上式简化为

这里积分部分满足Bessel的定义

零阶Bessel可近似:

 近似的结果

利用Bessel近似表达似然函数

导数为零求解出幅度谱估计

恢复降噪的信号

从这一结果也可以看出X = 1/2Y + 1/2HY,总是有部分保留,ML衰减是较小的,也正因为如此,ML估计器基本不单独使用,需要配合其他模型使用:如利用语音不存在概率

  B-功率谱减

与ML估计器不同,这里不再假定是确定信号,而是随机信号。 

既然是随机信号,就有统计信息。因此给出假设:噪声、语音信号的DFT不相关,且都服从零均值的高斯分布。从而得出Y概率密度

容易估计幅度谱

得到恢复的音频

这就是功率谱减,即(γ为后验信噪比)

  C-维纳滤波

对于维纳滤波器

变换一下形式

滤波器是功率谱减的级联,因此衰减最大。

总计一下:按衰减程度由大到小,关系依次是:维纳滤波>功率谱减>最大似然估计

二、贝叶斯估计 BAYESIAN ESTIMATORS

   A-MMSE幅值估计器

基于短时频谱幅值的方法有个专业术语:,最优幅度谱估计:

根据联合密度

得到最优估计器

看着感觉跟Wiener滤波器一回事,其实是有区别的:1)Wiener中,X = HY,假设有线性关系,这里没有线性这一约束,也就是说这里的估计器可以是非线性的; 2)维纳的MMSE是复频谱最优,而此处的MMSE是幅度谱最优

同样是为了简化,引入约束1:各个频点的DFT系数相互独立:

这样一来求解问题简化为:

由于复信号Y是关于Xk和theta的函数,难以直接求取,只要利用联合分布积分处理即可,也就是

 这样一来求解红框里的两个方程就可以得出理论解。这里引入约束2:Y是两个零均值的复高斯随机变量之和

 则

这里用到复高斯概率密度的性质:

如果:

 且两高斯分布:其模值为瑞利分布,相位为均匀分布,且二者独立,证明可以参考这里。从而

事实上,至此完成了问题的求解,得到Xk的估计。但牛人们非要给一个更简洁的表达式,这里直接给出结果: 

具体参数的定义,直接引用原文:

理论模型搭建完成,甚至得出了更简洁的形式,距离应用只差一步——参数的近似估计。文中的基本方法有两个:

1-Maximum-Likelihood Method

利用多帧信号:,求解似然方程

容易得出估计(因为是非零,所以max(估值,0)修正一下)

从而有

2-Decision-Directed Approach

根据定义

进一步写成

一个常规的思路是分两边看,借助递归思想,因为:

得出递归的更新公式

至此,完成了MMSE从理论到应用的整个过程。

  B-MMSE复数估计器

上面是幅值估计,相位用的是带噪信号的相位,可不可以直接对复信号利用MMSE进行估计呢?

求解问题转化为:分别利用MMSE求解幅值、相位的最优解,幅值已解决,直接分析相位

可以得出,所以带噪信号的相位是干净信号相位在MMSE下的最优解。

  C-对数MMSE估计器

求解思路与幅值的MMSE完全相同,不同的是利用对数的差异性

首先带来一个问题:为什么要用Log-MMSE?个人理解是logx - logy = logx/y,min|x/y|等价于min(x-y)2 s.t. y2 = c,c为常数。log相比于直接MMSE,保证干净信号幅值不变(不失真)的前提下,误差最小化,有点类似维纳滤波与LCMV之间的关系。理论上直接求解估值

无法直接求解,利用矩量简化求解

其中

跟MMSE求解一个思路,至此完成求解。但牛人们也希望简化

从而实现简化求解

vk, λk跟上面的定义一样,进一步简化

参数估计与MMSE中的思路完全一致,至此完成了求解以及实际应用的实现,其中积分部分也可以利用级数展开来简化

Log-MMSE比MMSE抑制性更好

  D-pTH-POWER SPECTRUM-P阶求解

先说结论:p阶是更广义的形式,Linear MMSE是它的特例,Log-MMSE也可以用p阶来实现逼近

下面理论分析一下,给出准则函数

得出最优估计

都是一样的套路:不能直接求解,转化问题

大牛们求解的结果

具体参数求解同MMSE中的方法。

  E-非高斯分布MMSE估计器

上面的DFT系数分布,都假设为高斯分布,实际情况是分布可能更接近其他分布(按频点统计):如拉普拉斯、伽马分布等等,这就需要考虑其他概率模型

一个合理的约束:DFT系数实部、虚部统计独立。这样互不相干,可以分别得出MMSE估计器,再进行拼接:

其他思路都是一样的,就是最后解方程一般人解不动...说一下思路:

根据贝叶斯定理

同样只要估计出P(Y|X)和P(Y)就完成求解

从而得出估计器,完成求解

大牛总是可以简化问题的,虽然这次的简化好像也不漂亮:

其中

以上是基于Gamma分布的推导,这里只是提供了一个笼统的思维框架。放在具体问题,需要:统计实验数据,并估计概率模型→基于合理的概率模型,得到用来增强的估计器

 

三、最大后验估计 MAXIMUM a POStErIOrI (MAP) ESTIMATORS 

  A-幅值、相位估计器

准则函数

利用贝叶斯准则

分母不影响参数的估计,忽略

约束来了:1)DFT系数实部、虚部都是高斯分布;2)二者统计独立,从而有

这样一来,求解就容易了

偏导为零,得出估计器

实际应用中具体参数的估计,与上面的思路都是一致的。

  B-幅值估计器

只估计幅值:

贝叶斯准则

忽略分母

利用

并借助A中的两个表达式,得出估计

其中

与ML准则估计器中的思路一样,对Bessel近似处理

得出

 

从而得出估计器

  C-调参的建议

这一节是看到这里想到的,注意观察A、B两个估计器

自己突发奇想,估计最多就水个水论文用得上,放在这里-感兴趣拿走。所以一个自然的思路是将他们推而广之:

α是可以调节的参数。

ML、MMSE、MAP三种估计器

1)其实ML可以理解成均匀分布的贝叶斯,这个时候的先验知识为零,通常贝叶斯假设高斯、拉普拉斯等分布(如幅值),这就引入了先验知识,如果这个先验知识有效,理论上效果应该比ML更好;这就像回归中的应用:无约束=均匀分布→最小二乘,高斯分布→Ridge回归,拉普拉斯分布→Lasso回归。

2)MMSE是基于统计平均的贝叶斯估计,注意它与Wiener是有区别的,虽然都基于均方误差最小准则;

3)MMSE找的是的均值,即,而MAP准则找的是的最大值。

 

四、利用不存在概率  INCORPORATING SPEECH ABSENCE PROBABILITY IN SPEECH ENHANCEMENT

其实就是信息融合,也就是Boosting的思想:两个弱分类器,组合一个强分类器,两个弱增强器,组合一个强增强器。不多说了,不过书中将这点应用的还不够深入

组合

关于此部分的更多内容参考这里

posted @ 2017-05-25 11:26  LeeLIn。  阅读(3162)  评论(0编辑  收藏  举报