第三章 贝叶斯决策和学习
预习笔记
MAP分类器
- 基于后验概率的分类器,后验概率 \(p(C_{i}|x)=\frac{p(x|C_{i})p(C_{i})}{p(x)}\)
- 判别方法:\(p(x|C_{1})p(C_{1})>p(x|C_{2})p(C_{2})?C1类:C2类\)
- 选择后验概率最大的类作为判别结果,即最小化概率误差
贝叶斯分类器
- 由于某些场景中,决策失误付出的实际代价不一样
- 因此在MAP分类器的基础上,引入决策风险的概念,即对每种决策失误赋予对应的权值
- 决策动作\(α_i\)的决策风险\(R(α_{i}|x)=Σ_{j}λ_{ij}p(C_{j}|x)\),其中\(λ_{ij}\)表示将真值类别属于j类的样本归于i类的决策的损失
- 对每个样本均归类于其决策风险最小的类别,可使损失期望之和最小化
- 判别方法:\(R(α_{i}|x)<R(α_{j}|x)?C_i类:C_j类\)
最大似然估计
- 求 \(θ_{ML}\) 使似然函数 \(\prod_{n=1}^{N}p(x_{n}|θ)\) 最大
- 一般可采用求导数为0点的方法,得到使似然函数取得最大值的\(θ_{ML}\)
- 参数θ被看作确定值,取值为 \(θ_{ML}\)
贝叶斯估计
- 相对于最大似然估计中参数θ是一个确定值,贝叶斯估计将θ也看作随机变量来估计
- 因此需要求参数θ的后验概率\(p(θ|D_{i})=\frac{p(D_{i}|θ)p(θ)}{p(D_{i})}=α\prod_{n=1}^{N_{i}}p(x_{n}|θ)p(θ)\)(在认为特征间满足独立同分布(iid)时有后一个等式,其中α为归一化因子)
- 再求观测似然关于θ的边缘概率:\(p(x|D_{i})\)=\(\int_{θ} p(x|θ,D_{i})\)=\(\int_{θ} p(x|θ)p(θ|D_{i})\)
- 随着样本个数的增加,贝叶斯估计越趋于真实的观测似然分布
KNN估计
- 不知道概率分布形式的情况下,估计模式x的概率密度,即以x为中心,在极小区域R内的概率密度函数p(x)
- 设P是任意模式落入R的概率,则有k个样本落入R的概率\(p(k)=C_{N}^{k}P^{k}(1-P)^{N-k}\)
- 由E(k)=NP,N非常大时,有k≈NP,故P≈\(\frac{k}{N}\)
- 设R的区域体积为V,则P≈p(x)V,故\(p(x)≈\frac{P}{V}=\frac{k}{NV}\)
KNN分类器
- 同样基于MAP分类器,但假设观测似然概率基于KNN估计
- 由KNN估计,\(p(x|C_i)=\frac{k_i}{N_iV},p(x)=\frac{k}{NV}\)
- 又\(p(C_i)=\frac{N_i}{N}\)
- 故\(p(C_i|x)=\frac{p(x|C_i)p(C_i)}{p(x)}=\frac{k_i}{k}\)
- 因此,对于测试样本x,我们找到与其距离最近的k个样本,其中哪个类别的样本最多,就将x归于那一类。即选择最大的\(k_i\),使得后验概率最大。
直方图估计
- 直方图也是基于无参数概率密度估计的基本原理: \(p(x)=\frac{k}{NV}\)
- 将特征空间平均划分为m个格子,每个格子即一个区域R,因此区域R的位置、大小固定。
- 每个格子的统计值为\(\frac{k_m}{N}\) ,其中 N为训练样本个数,\(k_m\)为落在该格子的训练样本数
- 对于任意模式x,概率密度为统计值/带宽,\(p(x)=\frac{k_m}{Nh}\)
核密度估计
- 核密度估计也是基于无参数概率密度估计的基本原理: \(p(x)=\frac{k}{NV}\)
- 以任意待估计模式x为中心、固定带宽h,以此确定一个区域R
- 概率密度 \(p(x)=\frac{Σ_{n=1}^{N}K(x|x_n,h)}{Nh}\)
复习笔记
贝叶斯决策和MAP分类器
后验概率
MAP分类器
将测试样本决策分类给后验概率最大的那个类
判别公式
决策边界
决策误差
决策风险和贝叶斯分类器
- 决策失误的代价往往不同,因此对每种决策失误给予损失权值,引入决策风险的概念
- 假设该测试样本x的真值是属于\(C_j\)类,决策动作\(a_i\)对应的损失可以表达为: \(λ(a_i|C_j)\), 简写为\(λ_{ij}\)