『科学计算』贝叶斯公式学习

贝叶斯公式介绍

条件概率和全概率

在介绍贝叶斯定理之前,先简单地介绍一下条件概率,描述的是事件 A 在另一个事件 B 已经发生条件下的概率,记作 P(A|B), A 和 B 可能是相互独立的两个事件,也可能不是:

P(A|B)=\frac{P(A\cap B)}{P(B)}

P(A\cap B) 表示 A,B 事件同时发生的概率,如果 A 和 B 是相互独立的两个事件,那么:


P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{P(A)\times P(B)}{P(B)}=P(A)

上面的推导过程反过来证明了如果 A 和 B 是相互独立的事件,那么事件 A 发生的概率与 B 无关。

稍微做一下改变:

P(A\cap B)=P(A|B)\times P(B)

考虑到先验条件 B 的多种可能性,这里引入全概率公式:

P(A) =P(A\cap B)+P(A\cap B^C)=P(A|B)\times P(B)+P(A|B^c)\times P(B^c)

这里 B^c 表示事件 B 的互补事件,从集合的角度来说是 B 的补集:

P(B)+P(B^c)=1

条件概率和全概率公式可以通过韦恩图形象地表示出来:

贝叶斯公式

在条件概率和全概率的基础上,很容易推导出贝叶斯公式:

P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{P(B|A)\times P(A)}{P(B)}=\frac{P(B|A)\times P(A)}{P(B|A)\times P(A)+P(B|A^c)\times P(A^c)}

看上去贝叶斯公式只是把 A 的后验概率转换成了 B 的后验概率 + A 的边缘概率的组合表达形式,因为很多现实问题中 P(A|B)P(A\cap B) 很难直接观测,但是 P(B|A)P(A) 却很容易测得,利用贝叶斯公式可以方便我们计算很多实际的概率问题。

贝叶斯过滤器介绍

原文链接

贝叶斯过滤器的使用过程
    现在,我们收到了一封信邮件。在未统计分析之前, 我们假定它是垃圾邮件的概率为50%。(【注释】有研究表明,用户收到的电子邮件中,80%是垃圾邮件。但是,这里仍然假定垃圾邮件的“先验概率”为50%。)
    我们用S表示垃圾邮件(spam),H表示正常邮件(healthy)。因此,P(S)和P(H)的先验概率,均为50%。
    
    然后,对这封邮件进行解析,发现其中包含了sex这个词,请问这封邮件属于垃圾邮件的概率有多高?
    我们用W表示“sex”这个词,那么问题就变成了如何计算P(S|W)的值,即在某个词语(W)已经存在的情况下,垃圾邮件(S)的概率有多大。
    根据条件概率公式,马上可以写出:
    
    因此,这封新邮件是垃圾邮件的概率等于99%。这说明,sex这个词的推断能力很强,将50%的“先验概率”一下子提高到了99%的“后验概率”。

联合概率的计算
    做完上面一步,请问我们能否得出结论,这封新邮件就散垃圾邮件?
    回答是不能。因为一封邮件包含很多词语,一些词语(比如sex)是这是垃圾邮件,另一些说不是。你怎么知道以哪个词为准呢?
    Paul GraHam的做法是:选出这封邮件中P(S|W)最高的15个词,计算它们的联合概率。(【注释】如果有的词是第一次出现,无法计算P(S|W),Paul Graham就假定这个值等于0.4。因为垃圾邮件用的往往都是某些固定的词语,所以如果你从来没有见过某个词,它多半是一个正常的词。)
    所谓联合概率,就是指在多个事件发生的情况下,另一个事件发生的概率有多大。比如,已知W1和W2是两个不同的词语,它们都出现在某封电子邮件之中,那么这封邮件是垃圾邮件的概率,就是联合概率。
    在已知W1和W2的情况下,无丰就是两种结果:垃圾邮件(事件E1)或正常邮件(事件E2)。
    
    其中,W1、W2和垃圾邮件的概率分别如下:
    
    如果假定所有事件都是独立事件(【注释】严格地说,这个假定不成立,但是这里可以忽略),那么就可以计算P(E1)和P(E2):
    
    又由于在W1和W2已经发生的情况下,垃圾邮件的概率等于下面的式子:
    
    【关于上面这式子,为什么P = P(E1)/(P(E1)+P(E2))?有如下解释
    在上面已经说明了,E1是在W1和W2同时出现的情况下垃圾邮件的事件,E2是W1和W2同时出现的情况下正常邮件的事件,注意这里的前提都是“在W1和W2同时出现的情况下”。
    那么,P = P(E1)/(P(E1)+P(E2)),其意思是W1和W2共同出现的情况下是垃圾邮件的概率,而P(W1,W2)实际上就是P(E1)+P(E2),所以P = P(E1)/(P(E1)+P(E2))。
    【解释完毕】
 
     即
    
    将P(S)等于0.5代入,得到
    
    这就是联合概率的计算公式。如果你不是很理解,点击这里查看更多的解释。

    【感觉推导跳过了几步:来自于评论】
    P(S|W1 W2) = P(W1 W2|S)P(S)/( P(W1 W2| S)P(S) + P(W1 W2|~S)P(~S) )
    W1,W2独立:P(W1 W2) = P(W1)P(W2),P(W1 W2|S) = P(W1|S)P(W2|S)  (?)
     上式=P(W1|S)P(W2|S)P(S) / (P(W1|S)P(W2|S)P(S) + P(W1|~S)P(W2|~S)P(~S))

    应用贝叶斯原理,将P(Wi|S)用P(S|Wi)表示:
    上式 = (P(S|W1)P(S|W2)P(S) * P(W1)P(W2) / P(S)^2) / ((P(S|W1)P(S|W2)P(S) * P(W1)P(W2) / P(S)^2) + (P(~S|W1)P(~S|W2)P(~S) * P(W1)P(W2) / P(~S)^2))
    在P(S) = P(~S) = 0.5的条件下:
    上式 = P(S|W1)P(S|W2) / (P(S|W1)P(S|W2) + P(~S|W1)P(~S|W2))
            = P1P2 / (P1P2 + (1-P1)(1-P2));

最终的计算公式
    将上面的公式扩展到15个词的情况,就得到了最终的概率计算公式:
    
    一封邮件是不是垃圾邮件,就用这个式子进行计算。这时我们还需要一个用于比较的门槛值。Paul Graham的门槛值是0.9,概率大于0.9,表示15个词联合认定,这封邮件有90%以上的可能属于垃圾邮件;概率小于0.9,就表示是正常邮件。
    有了这个公式以后,一封正常的邮件即使出现了sex这个词,也不会被认定为垃圾邮件了。

贝叶斯垃圾邮件分类器原型机

上面说了,需要取15个垃圾邮件中最多的词计算联合概率密度,实际上由于懒,没有进行这步,所以本程序有两个问题:1,正确率仅有70%左右;2,可能会因为概率值过小在联合概率密度计算部分出现分母为0错误,不过理论上来说(讲道理的话),进行前15个词的排序后应该都能有所改善,而我最近手里还有任务要赶,所以学习了贝叶斯方法目的也就达到了,不精益求精了(逃...

 

import os
import re
import glob
import numpy as np

def get_filenames():
    # 读取文件名列表
    file_dict = {'train':{'ham':[], 'spam':[]}, 'test':{'ham':[], 'spam':[]}}
    for path in ['train', 'test']:
        files = file_dict[path]
        files['ham'].extend(glob.glob(os.path.join('./',path+'/','ham/*.txt')))
        files['spam'].extend(glob.glob(os.path.join('./',path+'/','spam/*.txt')))
    return file_dict, len(file_dict['train']['ham']), len(file_dict['train']['spam'])

def split_word(file_list, word_dict):
    '''把邮件中的单词切分出来,去重,计数(多少份邮件中含此单词)'''
    for name in file_list:
        # print(name)
        with open(name, 'rb') as f:
            # words = set(f.read().split(' '))
            line = f.read().decode('utf-8', 'ignore')
            words = set(re.findall(r'[a-zA-Z]{2,}',line.strip()))
            for word in words:
                # print(word, word_dict.keys())
                if word in word_dict.keys():
                    word_dict.update({word: (word_dict[word]+1)})
                else :
                    word_dict.update({word: 1})
    # print(word_dict)
    return word_dict

def train(file_dict):
    '''调用切词函数,把统计结果写入文件'''
    word_dict = {'ham': {},'spam': {}}
    split_word(file_dict['train']['ham'][:],word_dict['ham'])
    split_word(file_dict['train']['spam'][:],word_dict['spam'])
    with open('./dict_ham.txt','w',encoding= 'gbk') as f:
        for line in word_dict['ham'].items():
            f.write(line[0] + ' ' + str(line[1]) + '\n')
    with open('./dict_spam.txt','w',encoding= 'gbk') as f:
        for line in word_dict['spam'].items():
            f.write(line[0] + ' ' + str(line[1]) + '\n')
    print(word_dict['ham'])
    print(word_dict['spam'])

def load_model_data(data_name=['./dict_ham.txt', './dict_spam.txt']):
    '''读取写入文件的数据'''
    word_dict = {'ham': {},'spam': {}}
    with open(data_name[0], 'r') as f:
        for line in f.readlines():
            word_dict['ham'].update({line.split(' ')[0]:int(line.split(' ')[1].strip('\n'))})
    with open(data_name[1], 'r') as f:
        for line in f.readlines():
            word_dict['spam'].update({line.split(' ')[0]:int(line.split(' ')[1].strip('\n'))})
    return word_dict

def calConditionProb(word,dict,num):
    '''计算类含有目标词的概率'''
    if word in dict.keys():
        if dict[word]>=20:
            return dict[word]/float(num)
        else:
            return 0.4
    else:
        return 0.4

def calBayes(word_list, word_dict, num_ham, num_spam):
    '''贝叶斯方法求后验概率'''
    wordProbList = {}
    for word in word_list:
        pw_n = calConditionProb(word,word_dict['ham'],num_ham)
        pw_s = calConditionProb(word,word_dict['spam'],num_spam)

        if pw_s!=pw_n and (pw_s==0.4 or pw_n==0.4):
            ps_w=0.4
        else:
            ps_w=pw_s/(pw_s+pw_n)

        wordProbList.update({word:ps_w})
    return wordProbList

def calJointProb(wordList):
    '''求联合概率密度'''
    ps_w, pn_w = 1, 1
    for word, p in wordList.items():
        ps_w *= p
        pn_w *= (1-p)
        print(ps_w)
    prob = ps_w / (ps_w + pn_w)
    return  prob

def test_file(file_name, word_dict, num_ham, num_spam):
    with open(file_name,'rb') as f:
        line = f.read().decode('utf-8','ignore')
        words = set(re.findall(r'[a-zA-Z]{2,}',line.strip()))
        wordList = calBayes(words, word_dict, num_ham, num_spam)
        return calJointProb(wordList)


if __name__=='__main__':
    training = False

    file_dict, num_ham, num_spam = get_filenames()
    if training == True:
        train(file_dict)
    word_dict = load_model_data()

    num_t, num_w = 0, 0
    for path in file_dict['test']['ham']:
        if test_file(path,word_dict,num_ham,num_spam) > 0.5:
            num_t += 1
            #print('Right')
        else:
            num_w += 1
            #print('Wrong')
    print(num_t/(num_t + num_w))

 

 代码学习:

with open(name, 'rb') as f:
            line = f.read().decode('utf-8', 'ignore')

 有时候使用'r'命令读取文件时会出现解码错误,这时候可以把'r'改成'rb',但是read()时候需要解码,否则后面无法识别str,所以需要加上.decode(编码方式),这时指定出错时处理方式为'ignore',就不会报错了

 

posted @ 2017-07-18 16:00  叠加态的猫  阅读(1717)  评论(0编辑  收藏  举报