1.基于最小错误率的贝叶斯决策
共w1~wn种决策
本质上就是最大后验概率P(wi | X)的贝叶斯决策
公式一:P(wi | X) = P(X | wi)*P(wi) / ∑nj=1 P(X | wj)*P(wj)
i=1...n,j=1...n
2.最小风险的贝叶斯决策
共a1~aa种条件风险
对于决策ai可以在c个风险λ(ai,wj)中任选一个,相应的概率是 P(wj | X)
本质上就是最小条件风险R(ai | X)的决策,也就是条件期望损失最小的决策
公式二:R(ai | X) = E[ λ(ai,wj) ] = ∑cj=1 λ(ai,wj) * P(wj | X) = ∑cj=1 λij * P(wj | X)
i=1...a, j=1...c
3.二者关系(证明)
其实根据公式二,可以看出基于最小风险的贝叶斯决策本质就是最小错误率的决策的加权和,当在0-1损失函数的情况下,即λii=0,λij=1时,基于最小风险的决策与最小错误率的决策结果相同。可以把基于最小错误率的决策看成是基于最小风险的决策的一个特例。由于损失函数的调整会造成不同的分类结果,当两类错误决策所造成的错误相差悬殊时,损失就会起到主导作用,形成基于最小风险的决策。
ps:
0-1损失函数:错了损失为1,不错损失为0,即λii=0,λij=1。
例子:
课件:
参考:
https://wenku.baidu.com/view/d7fbbf08581b6bd97f19ea16.html
https://wenku.baidu.com/view/16b5a88953d380eb6294dd88d0d233d4b04e3f2a.html
https://www.docin.com/p-1671295744.html
作者:西伯尔
出处:http://www.cnblogs.com/sybil-hxl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· DeepSeek 开源周回顾「GitHub 热点速览」
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了