PRML-公式推导- 1.68

1.摘抄1-老外的一些解释

https://stats.stackexchange.com/questions/305078/how-to-compute-equation-1-68-of-bishops-book

I was treating the problem as having four random variables x,t,D,w where D=(X,T) then I only obtain this:

P(t,x,D)=P(t,x,D,w)dw
P(t|x,D)P(x,D)=P(t|x,D,w)P(x,D,w)dw
P(t|x,D)=P(t|x,D,w)P(w|x,D)dw


The book sneakily invoked the concept of "conditional independence".
本书偷偷摸摸的提到了"条件独立的概念"

Suppose we have variables A, B, and C, and that A and B are conditionally independent given C. This means that P(AB,C)=P(AC). That is, if C is observed, then A is independent of B. However, that independence is conditional, so it's still true that P(AB)P(A) in general.

A,B,CA,BC,P(AB,C)=P(AC),C,A,B(),,P(AB)P(A)

In this case, t is conditionally independent of D given w. The reason for this is that t solely depends on w and x, but if you don't know w then D gives you a hint to the value of w. However, if you do know w then D is no longer useful for determining the value of t. This explains why D was omitted from P(tx,w,D) but not from P(tx,D).

,twD,twx,wDwwtDDP(tx,w,D)P(tx,D)


Similarly, w is entirely independent of x so P(wx,D)=P(wD).

2.摘抄2-国人1

https://nbviewer.org/github/hschen0712/machine-learning-notes/blob/master/PRML/Chap1-Introduction/1.2-probability-theory.ipynb

贝叶斯曲线拟合

前面介绍的MLE和MAP都属于点估计,这一节将介绍一种更完全的贝叶斯方法。回顾曲线拟合的目标,我们希望为给定的输入x^预测其对应的输出t^。这里假设参数αβ已知,于是可以省略w的后验概率中的参数,写为p(w|x,t)。通过对下式右端关于w积分,我们可以得到t的后验预测分布(posterior predictive distribution): p(t|x,x,t)=p(t|x,w)p(w|x,t)dw 这个公式是我读这本书遇到的第一道坎,貌似很多人也在这个公式上卡了很久。我说一下我对这个公式的理解:
第一种理解:我们知道在贝叶斯中数据是已知的,只有参数w是不确定的,因此式中x,x,t都是确定的,为了直观我们可以把已知的都省略,于是原式变为 p(t)=p(t|w)p(w)dw=p(t,w)dw 这就很好理解了,就是对w做marginalization(运用概率论的乘法公式和加法公式,连续的情况下求和变为积分)。
第二种理解:概率图模型,需要用到D-separation理论(D-Separation是一种用来判断变量是否条件独立的图形化方法)。以下举个D-separation最简单的例子,更多的理论知识请参考PRML第8章

我们要确定上图中ab的关系,则可以分为两种情况来讨论
首先依据链式法则,我们写出该图模型的联合概率 p(a,b,c)=p(c)p(a|c)p(b|c) 1)如果随机变量c已经被观测,则ab条件独立,即p(a,b|c)=p(a|c)p(b|c)
证明过程如下: p(a,b|c)=p(a,b,c)p(c)=p(c)p(a|c)p(b|c)p(c)=p(a|c)p(b|c) 同理,我们还能证明p(b|a,c)=p(b|c) p(b|a,c)=p(a,b,c)p(a,c)=p(c)p(a|c)p(b|c)p(c)p(a|c)=p(b|c) 2)如果随机变量c未被观测,通过对p(a,b,c)关于c积分我们获得ab的联合概率 p(a,b)=c=p(c)p(a|c)p(b|c) 通常情况下,p(a,b)是不等于p(a)p(b)的,因此ab相互不独立
接下来我们讨论回归模型的概率图模型:

接下来我们来证明原式成立: p(t|x,x,t)=p(t,x,x,t)p(x,x,t)&=p(t,x,x,t,w)p(x,x,t)dw&=p(t,x,x,t,w)p(x,x,t,w)p(x,x,t,w)p(x,x,t)dw&=p(t|x,x,t,w)p(w|x,x,t)dw 根据图模型的D-separation理论,w被观测的条件下,上图中xt(在图中是t^)的通路被阻断,因此txt相互独立,则 p(t|x,x,t,w)=p(t|x,w) 接着我们考察概率p(w|x,x,t),由于t尚未被观测,根据图模型D-separation理论,wx应该是独立的,此外由于t已经被观测,那么wx条件不独立。于是 p(w|x,x,t)=p(w|x,t) 综上,我们知道 p(t|x,x,t)=p(t|x,w)p(w|x,t)dw


3.摘抄3-国人2

https://www.codetd.com/article/10631869

这篇写的很好,很工整,结合上了上面两篇

在第一章的1.2.6节,有公式(1.68)

\[p(t|x,x,t)=p(t|x,w)p(w|x,t)dw\]
\(t=y(x,w)进行推断,即给出了新的x(注意粗体的区别,x是测试集的样本,这部分信息是已知的)下,我们对t的后验概率进行推断。\)

从读MLAPP的时候就对这个公式有点疑惑,虽然书中一笔带过,但是小白的我决定自己推导一番:

\[p(t|x,x,t)=p(t,w|x,x,t)dw\]

\[p(t,w|x,x,t)=p(t,w,x,x,t)p(x,x,t)\]\[p(t|x,w)p(w|x,t)=p(t,x,w)p(w,x,t)p(x,w)p(x,t)\]
所以目标是证明

\[p(t,w,x,x,t)p(x,x,t)=p(t,x,w)p(w,x,t)p(x,w)p(x,t)\]
是不是等价性没有那么self-evident =皿=

其实这个地方有用到几个条件独立性。

\(p(t,w|x,x,t)=p(t|x,x,t)p(w|x,x,t) 这个理解起来就是说,在给定(x,x,t)下,tw是条件独立的。\)

\(tw之间的联系是由(x,x,t)给出的,所以当中间连接他们的纽带给定的时候,这两个随机变量是条件独立的。\)

\(p(w|x,x,t)=p(w|x,t),因为x是新的样本,无法对w的后验概率造成影响。\)
\(p(t|x,x,t)=p(t|x,w).因为(x,t)影响t的路径是通过影响w产生的,所以这两个等价。\)
于是,我们得到

\[p(t|x,x,t)=p(t|x,w)p(w|x,t)dw\]
在1.5.1节,给出了错误分类率的公式

\[p( mistake )=p(xR1,C2)+p(xR2,C1)=R1p(x,C2)dx+R2p(x,C1)dx\]
书中直接给出结论,要使得错误分类率最小,应该分给后验概率(P(C_k|x))最大的类别中。

推导过程如下:

\(R1,R2,只要满足它的犯错概率小于其他所有的决策区域R1,R2下的犯错概率即可。\)

\[p( mistake )=p(xR1,C2)+p(xR2,C1)=R1p(x,C2)dx+R2p(x,C1)dx\]\[p( mistake )=p(xR1,C2)+p(xR2,C1)=R1p(x,C2)dx+R2p(x,C1)dx\]
对两个做差,得到

\[p(mistake)p(mistake)=R1R2(p(x,C2)p(x,C1))dx+R2R1(p(x,C1)p(x,C2))dx\]
那么我们只需要

\(p(x,C2)p(x,C1)0在任意R1R2上成立。\)

\(p(x,C1)p(x,C2)0在任意R2R1上成立。\)

p\left(\boldsymbol{x}\right)

\(p(x|C2)p(x|C1)0在任意R1R2上成立。\)

\(p(x|C1)p(x|C2)0在任意R2R1上成立。\)

\(R1R2其实就是R1,任意R2R1其实就是R2\)

\(p(x|C2)p(x|C1)就分配到第一类上,如果p(x|C1)p(x|C2)就分配到第二类上。\)

posted @   筷点雪糕侠  阅读(122)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示