概率论和数理统计的总结(一)

迄今为止,看得最为亲切的一本概率论与数理统计方面的书莫过于陈希孺先生的这本,陈先生用一种娓娓道来的语气把很多原本复杂的内容讲得那么清晰,而且并不是就着这一点知识而讲,能结合前后知识体系一起介绍。

这本书名为《概率论与数理统计》,主要也是讲两大知识体系,前半部分(前三章)讲概率论,后半部分(后三章)讲数理统计。

就知识点来看,第一章讲事件的概率,包括什么是概率(概率是什么),古典概率计算以及事件的计算、条件概率和概率的独立性。在这一章里,事件是整个概率的基础,如何定义概率也是整个概率论知识体系演进的重点内容,包括古典概率(几何概率)、概率的统计定义以及概率的公理化定义。古典概率的基础是等可能性,几何概型在古典概率的基础上扩展到无限情况;统计定义考虑了非等可能性的情况;概率的公理化定义建立在集合论基础之上,用集合论来描述概率也使得概率真正进入了严格的数学范畴。

1.2节介绍古典概率的计算,古典概率计算是常见的计算方法,其基础是排列组合,也很考验一个人考虑问题的周全性和排列组合计算的功底,重要的是考虑总体的计算和事件的计算。

1.3节介绍事件的运算、条件概率与独立性。将复杂事件分解为简单事件(或原子事件),或者说根据事件运算的方法,根据原子事件计算出复杂事件的概率。任何运算都是由三个部分组成,运算对象、运算符和运算结果。那么事件的运算对象是事件,运算符比较多,包括事件的关系

  1.3.1(蕴含、包含及相等),蕴含表示 A发生=>B发生,也就是B包含A,如果A\subseteq B 且 B\subseteq A,则说明A=B

  1.3.2 事件的互斥和对立;互斥为不两立事件,互斥事件的一个重要情况为对立事件B={A不发生},称B为A的对立事件

  1.3.3 事件的和:事件的并,两个事件任意发生一个,

  1.3.4 概率的加法定理:若干个互斥事件之和的概率,等于各事件的概率之和。

  1.3.5 事件的积、事件的差:事件的积就是事件的交,事件的差

  1.3.6 条件概率:已知某事件A发生,那么B发生的概率是多少?P(B|A)=P(BA)/P(A) 又有 P(A/B)=P(AB)/P(B),则推出P(B|A)P(A)=P(A|B)P(B),这就是贝叶斯公式的基础之一

  1.3.7 事件的独立性,概率乘法定理:以前很多人将事件的独立性和事件的互斥性弄混淆,事件的互斥表示两个事件是你死我活的关系,A发生,B不能发生;独立呢,是A和B不影响的关系,也就是P(A|B)=P(A),不管B发生不发生,A发生的概率都是一样的;可以推出另外一个公式:P(AB)=P(A)P(B)。推广到多个事件情况:P(A1,A2,...An)=P(A1)P(A2)...P(An)。独立的概念很重要。

  1.3.8 全概率公式和贝叶斯公式:全概率公式是考虑完备子事件群的概率,P(A)=P(AB1)+P(AB2)+...+P(ABn);贝叶斯公式虽然只是全概率公式和条件概率定义的推导,但在现实中有着很重要的意义,全概率公式是由原因推结果,而贝叶斯公式是由结果推原因;比如在机器学习领域的朴素贝叶斯分类,垃圾邮件分类的例子,计算出现关键词是垃圾邮件的概率和出现关键词不是垃圾邮件的概率进行比较,从而对邮件进行分类。这就是贝叶斯公式的一种应用,当然,贝叶斯统计远比刚才所举例子要复杂得多,已经成为一个学派,即考虑先验概率的学派,在总体信息、样本信息之外,还要考虑先验信息。虽然简单,但是很重要。

 

posted @ 2014-10-07 12:48  mfwzan  阅读(2390)  评论(0编辑  收藏  举报