贝叶斯估计学习笔记

贝叶斯估计

极大似然估计,概率空间(Ω,F,P)Ω代表元素,F代表σ-代数,P代表概率测度。X是随机变量,假定Xp(x|θ)(密度函数中有θ作为参数),例如高斯分布等。将参数估计出来可以对随机变量有一个更好的理解。那么怎么去估计这个参数呢?进行独立抽样:x1,x2...xnL(θ)=Πi=1n(p(xi)|θ),极大似然估计想找到这样一个θ使得L(θ)最大,即argmaxθL(θ)。对其取log后就变成求和了,处理起来更加方便。

考虑二元伯努利分布,x1,...xn,xi{0,1}p(X=xi)=p1xi(1p)xiL(p)=p1x1(1p)x1...p1xn(1p)xn=pk(1p)nk。同样取对数后对p求导。这也可以拓展到多元的情况。

考虑高斯分布,N(μ,σ2)p(x)=12πσe(xμ2σ)2...极大似然估计给出的参数估计和一般的计算均值方差的方法算出来是一样的。

在极大似然估计中认为θ是一个参数,而在贝叶斯估计中认为θ是本身满足一定分布的随机变量。给定一组抽样Sp(θ|S)=p(S,θ)/p(S)=p(S|θ)p(θ)/p(S),在极大似然估计中关注的是p(S|θ)(认为θ是一个参数),而此时还需要把p(θ)乘上去。因此,argmaxθp(θ|S)=argmaxθp(S|θ)p(θ)p(S),注意到分母与θ无关,因此简化为:argmaxθp(S|θ)p(θ)。这里可以看出极大似然估计与贝叶斯估计的区别:是否乘以θ本身的分布。

应用:设θ满足(0,1)的均匀分布,则p(θ)恒等于1,argmaxθp(θ|S)=argmaxθp(S|θ)

分类问题:

给出(x1,y1)...(xn,yn),xiRk,yi{0,1}。出发点:把x,y看作联合分布,p(x|y=0)N(μ0,σ02),p(x|y=1)N(μ1,σ12)。对于一个新的样本,p(y=0|x)=p(y=0,x)p(x)=p(x|y=0)p(y=0)p(x,y=0)+p(x,y=1)=p(x|y=0)p(y=0)p(x|y=0)p(y=0)+p(x|y=1)p(y=1)p(x|y=0),p(x|y=1)已经能由我们的假设估计出来了,而p(y=0),p(y=1)也知道,因此就可以预测了。总之,问题就变成了估计μ0等这些参数。p(xi,yi)=p(xi|yi)p(yi)Πi=1np(xi,yi)Πi=1np(xi|yi)Πi=1np(yi)。取对数后:Σi=1nlogp(xi,yi)=Σi=1nlogp(xi|yi)+Σi=1nlogp(yi)。与想要预测的参数密切相关的就是Σyi=0logp(xi|yi=0)+Σyi=1logp(xi|yi=1)这两项。μ0的最佳估计是Σyi=0xikσ02的最佳估计是1kΣyi=0(xiμ0)2μ1的最佳估计是Σyj=1xjnkσ02的最佳估计是1nkΣyj=1(xjμ1)2

对于分界线:截屏2022-04-11 19.52.56

σ0=σ1的时候,x是常数。

posted @   脂环  阅读(115)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2020-04-11 NOIP 2017 提高组 DAY1 T1小凯的疑惑(二元一次不定方程)
2020-04-11 Educational Codeforces Round 85 B. Middle Class(排序/贪心/水题)
2020-04-11 Educational Codeforces Round 85 A. Level Statistics(水题)
点击右上角即可分享
微信分享提示
主题色彩