机器学习——概率论的加和与乘积规则

下面来推导概率论的加和与乘法规则
  假设两个随机变量X和Y,随机变量X可以随机取任意的xi,i=1,2,...,M,随机变量Y可以随机取任意的yj,j=1,2,...,L。进行N次试验,对X和Y都进行了取样,把X=xiY=yi出现的试验次数记为nij。并且把X取值为xi(与Y的取值无关)出现的试验次数记为ci, 类似地,把Y取值为yj的试验数量的次数记为rj
  X取值为xi且Y取值为yj的概率记为p(X=xi,Y=yj),被称为X=xiY=yi的联合概率(joint probability)。它的计算方法为落在单元格i,j的点的数量与总的点数的比值,即
      p(X=xi,Y=yj)=nijN      (1.5)
类似地,X取值xi的概率被记为p(X=xi),它的计算方法为落在第i列上点数与点的总数的比值,即
      p(X=xi)=ciN      (1.6)
Y取yj的概率记为p(Y=yj), 它的计算方法为落在第j行的点数与点的总数的比值,即p(Y=yj)=rjN
由于下面图片中第i列各个方格里面点数之和满足ci=jnij,因此可以可以推导
      p(X=xi)=ciN=jnijN=jnijN=jp(X=xi,Y=yj)   (1.7)
公式(1.7)就是概率的加和规则。注意,此次单个变量的概率p(X=xi)有时被称为边缘概率。如果我们只考虑那些X=xi的实例,那么这些实例中Y=yj的实例所占的比例被写成p(Y=yj|X=xi),被称为给定X=xiY=yj的条件概率(conditional probability)。它的计算方式为:计算落在单元格ij的点的数量与第i列的点的数量的比值,即
      p(Y=yj|X=xi)=nijcj       (1.8)
根据公式(1.5)(1.6)(1.8),可以推导出下面公式
      p(X=xi,Y=yj)=nijN=nijciciN=p(Y=yj|X=xi)p(X=xi) (1.9)
这个就是概率论的乘法规则。

  使用如下简单的记法来表示概率论的两条基本规则:
    sum rule p(X)=Yp(X,Y)    (1.10)
    product rule p(X,Y)=p(Y|X)p(X)    (1.11)
这里的p(X,Y)是联合概率,可以表述为“X且Y的概率”。类似地,p(Y|X)是条件概率,可以表述为“给定X条件下Y的概率”,p(X)是边缘概率,可以表述为“X的概率”。这两个简单的规则是概率论的基础。
image

  上面介绍了概率论的两个重要的规则:加和规则和乘法规则。涉及到联合概率、条件概率、边缘概率这些名词和概念。下面基于此引入贝叶斯定理。由于联合概率的定义可知p(X,Y)=p(Y,X),根据乘法规则p(X,Y)=p(Y|X)p(X)=p(X|Y)p(Y),可以推导出
      p(Y|X)=p(X|Y)p(Y)p(X)      (1.12)
这就是贝叶斯定理,在模式识别和机器学校领域中扮演者中心角色。使用(1.10)(1.11)可以得到p(X)=Yp(X|Y)p(Y),由此可见分母可以用出现在分子中的项来表示。我们可以将分母看出一个归一化的常数,用于确保公式(1.12)左侧的条件概率对于所有的取Y值之和为1

参考
【1】机器学习 周志华

posted @   星辰大海,绿色星球  阅读(784)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示