信号处理中的优化算法

傅里叶级数与解调;频谱与频谱密度
学习通信原理之——彻底理解频谱和频谱密度

你也能蒙圈的各种空间

定理:任意的PSD的Toeplitz矩阵T(u)CN×M(秩rN)有如下分解:

(5-68)T(u)=k=1rpka(fk)aH(fk)=A(f)diag(p)AH(f)

其中,pk>0fkT,k=1,2,,r。若秩r<N,则分解是唯一的。

推论:任意的PSD的Toeplitz矩阵T(u)CN×M(秩rN)有如下分解:

(5-69)T(u)=k=1rpka(fk)aH(fk)+σI=A(f)diag(p)AH(f)+σI

其中,σ=λmin(T(u)),即T(u)的最小特征值,r=rank(TσI)<N

注:推论中分解唯一性是σ=λmin(T(u))保证的。若让0<σ<λmin(T(u))则会使T(u)满秩,分解不唯一。

1. EM算法

EM算法主要用来解决具有隐变量的混合模型的参数估计问题。做参数估计的时候,一般在比较简单的模型情况下,是直接可以得出解析解的。比如说常见的MLE问题,可通过直接求导得到结果:

θMLE=argmaxθp(x|θ)=argmaxθlogp(x|θ)

其中,为简化运算引入了log函数,称logp(x|θ)为“对数似然函数”。但是,对于含有隐变量的混合模型,直接求解析解是非常困难的,甚至没有解析解。

EM算法的迭代公式为:

θ(t+1)=argmaxθEz|x,θ(t)[logp(x,z|θ)]=argmaxθzlogp(x,z|θ)p(z|x,θ(t)) dz

其中,x是数据,z是隐变量,p(z|x,θ(t))是后验,logp(x,z|θ)称为对数联后概率or对数完全数据。E-Step就是写出Ez|x,θ(t)[logp(x,z|θ)]的表达式,M-Step就是让这个期望最大。

logp(x|θ)=logp(x,θ)p(θ)=logp(x,θ)p(z|x,θ)p(θ)p(z|x,θ)=logp(x,θ,z)p(θ)p(z|x,θ)=logp(x,z|θ)p(θ)p(θ)p(z|x,θ)=logp(x,z|θ)logp(z|x,θ)

两边同时求期望:

=zlogp(x|θ)p(z|x,θ(t)) dz=logp(x|θ)zp(z|x,θ(t)) dz=logp(x|θ)=

=zlogp(x,z|θ)p(z|x,θ(t)) dzzlogp(z|x,θ)p(z|x,θ(t)) dz=Q(θ,θ(t))H(θ,θ(t))

则由定义直接可得:Q(θ(t+1),θ(t))Q(θ,θ(t))Q(θ(t+1),θ(t))Q(θ(t),θ(t))

下面来证明H(θ(t+1),θ(t))H(θ(t),θ(t))

H(θ(t+1),θ(t))H(θ(t),θ(t))=zlogp(z|x,θ(t+1))p(z|x,θ(t)) dzzlogp(z|x,θ(t))p(z|x,θ(t)) dz=zlogp(z|x,θ(t+1))p(z|x,θ(t))p(z|x,θ(t)) dz=KL[p(z|x,θ(t))||p(z|x,θ(t+1))]0

其实,这里除了用KL散度,也可以使用Jensen不等式,具体如果有需要再查阅资料。

1.2 EM算法的公式推导

logp(x|θ)=logp(x,z|θ)logp(z|x,θ)=logp(x,z|θ)q(z)logp(z|x,θ)q(z)

其中,这里引入了一个关于z的概率分布q(z)。下面等式两边分别关于q(z)求期望。

=zlogp(x|θ)q(z) dz=logp(x|θ)zq(z) dz=logp(x|θ)=

=zlogp(x,z|θ)q(z)q(z) dzzlogp(z|x,θ)q(z)q(z) dz=ELBO+KL[q(z)||p(z|x,θ)]

其中,ELBO=evidence lower bound,故名思意ELBOlogp(x|θ)的一个下界。

blob

1.N GMM模型

机器学习-白板推导系列(十一)-高斯混合模型GMM - bilibil
高斯混合模型(GMM)推导及实现 - 渐渐弃坑的文章 - 知乎
高斯混合模型(GMM)推导 - Young Zicon的文章 - 知乎
机器学习-白板推导系列 - ws13685555932的笔记 - Github
【机器学习笔记11】高斯混合模型(GMM)【上篇】原理与推导 - CSDN


EM算法原理及推导 - 渐渐弃坑的文章 - 知乎

从最大似然到EM算法:一致的理解方式:苏剑林个人博客,好像很牛很牛!!!
统计学里频率学派(Frequentist)与贝叶斯(Bayesian)学派的区别和在机器学习中的应用 - 人民教师Kelly的文章 - 知乎

2. MM算法

浅谈MM优化算法以及CCP算法 - CSDN
MM 算法与 EM算法概述 - 博客园
MM(Majorize-Minimization, Minorize-Maximization)优化方法 - CSDN

posted @   博客侦探  阅读(112)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示