随笔分类 -  PRML

Pattern Recognition and Machine Learning 机器学习圣经之一
摘要:局部变分方法 利用局部信息进行变分推断 寻找上界或者下界 PPpipj,p~jpj使p=pip~jijpi \(f(x)是 阅读全文
posted @ 2022-03-12 17:41 筷点雪糕侠 阅读(70) 评论(0) 推荐(0) 编辑
摘要:为什么需要近似推断 现在棘手的问题在于 1.xzθ 2. 两种方法达到近似推断 1.决定性方法,-有解析解,快速,但是求出的是局部解 2.随机性方法,-慢,要采样多次,但是可以得到全局解(有证明的) 决定性推断 阅读全文
posted @ 2022-03-12 10:52 筷点雪糕侠 阅读(330) 评论(0) 推荐(0) 编辑
摘要:1.指数族分布的标准形式 p(x|η)=h(x)g(η)exp{ηTu(x)} B p(x|η)=h(x)exp{ηTϕ(x)A(η)} \(这里的u(x)=\ 阅读全文
posted @ 2022-03-09 22:52 筷点雪糕侠 阅读(298) 评论(0) 推荐(0) 编辑
摘要:#1.相对熵,KL散度 p(x),q(x),p(x),q(x)/KL 注意KL(p||q)KL(q||p),相对熵不是一个对称量 KLp(x)q(x) #2.KL散度的近似公式 阅读全文
posted @ 2022-02-19 13:22 筷点雪糕侠 阅读(38) 评论(0) 推荐(0) 编辑
摘要:#1.信息熵 p(x)h(x) 1.p(x) \(2.如果我们有两个不相关的事件x和y,我们观察到两个事件同时发⽣时获得的信息应该等于观察到事件各⾃发⽣时获得的信息之和,即h(x, y) = h( 阅读全文
posted @ 2022-02-18 23:32 筷点雪糕侠 阅读(102) 评论(0) 推荐(0) 编辑
摘要:#1.损失函数 L(t,y(x)) E[L]=L(t,y(x))p(x,t)dxdt 平方损失 L(t,y(x))={y(x)t}2 \(损失函数可以写成 阅读全文
posted @ 2022-02-18 08:49 筷点雪糕侠 阅读(128) 评论(0) 推荐(0) 编辑
摘要:https://biggerhao.github.io/blog/2018/02/PRML-1-88/ 原文回顾 在回归问题中,我们需要选择一个估计函数 y(x),来对每个输入 x 预测其对应的值 t。这样做就会导致损失 \(L(t, y( 阅读全文
posted @ 2022-02-18 08:21 筷点雪糕侠 阅读(237) 评论(0) 推荐(0) 编辑
摘要:使 判别式 和 生成式 简单点说,生成式算出的是概率,哪个概率大,属于哪个分类 判别式就是输出具体的类别,没有概率 上图左边为判别式模型而右边为生成式模型,可以很清晰 阅读全文
posted @ 2022-02-17 22:39 筷点雪糕侠 阅读(64) 评论(0) 推荐(0) 编辑
摘要:https://www.cnblogs.com/wacc/p/5495448.html 贝叶斯线性回归 问题背景: 为了与PRML第一章一致,我们假定数据出自一个高斯分布: \[p(t|x,\mathbf{w},\beta)=\mathcal{N}(t|y(x,\mathbf{w}),\beta^{ 阅读全文
posted @ 2022-02-17 18:30 筷点雪糕侠 阅读(97) 评论(0) 推荐(0) 编辑
摘要:1.摘抄1-老外的一些解释 https://stats.stackexchange.com/questions/305078/how-to-compute-equation-1-68-of-bishops-book I was treating the problem as having four 阅读全文
posted @ 2022-02-17 08:52 筷点雪糕侠 阅读(122) 评论(0) 推荐(0) 编辑
摘要:#一些记号和回顾 |参数 | 含义 | | | : | | N | 样本量 | |x=(x1,...,xN)T|| |t=(t1,...,tN)T|| |\(p(x\|\mu,\sigma^2)=\prod\limits_ 阅读全文
posted @ 2022-02-17 08:27 筷点雪糕侠 阅读(538) 评论(0) 推荐(0) 编辑
摘要:#1.一些记号和回顾 |参数 | 含义 | | | : | | N | 样本量 | |x=(x1,...,xN)T|| |t=(t1,...,tN)T|| |\(p(x\|\mu,\sigma^2)=\prod\limit 阅读全文
posted @ 2022-02-14 23:06 筷点雪糕侠 阅读(135) 评论(0) 推荐(0) 编辑
摘要:https://math.stackexchange.com/questions/171226/stuck-with-handling-of-conditional-probability-in-bishops-pattern-recognition 在本书的第10.8章节重新讲到了高斯模型的概率图 阅读全文
posted @ 2022-02-14 23:04 筷点雪糕侠 阅读(152) 评论(0) 推荐(0) 编辑
摘要:1.一元高斯分布 2.多元高斯分布 D,μ,D×DΣ X,Y $[cov[x,x]cov[x,y] cov[y,x]cov[y,y] ],对 阅读全文
posted @ 2022-02-14 21:46 筷点雪糕侠 阅读(58) 评论(0) 推荐(0) 编辑
摘要:      (classical)(frequentist)(Bay 阅读全文
posted @ 2022-02-13 22:29 筷点雪糕侠 阅读(56) 评论(0) 推荐(0) 编辑
摘要:1.期望 :E[f]=xp(x)f(x) :E[f]=xp(x)f(x)dx 如果我们给定有限数量的N个点,这些点满⾜某个概率分布或者概率密度函数,那么期望可以通过求和的⽅式估计 \( 阅读全文
posted @ 2022-02-13 21:26 筷点雪糕侠 阅读(46) 评论(0) 推荐(0) 编辑
摘要:1.概率密度函数 - pdf (probability density function) x(x,x+δx)p(x)δxδx0p(x)x(probabilitydensity)。\(图1.12说明 阅读全文
posted @ 2022-02-13 21:04 筷点雪糕侠 阅读(334) 评论(0) 推荐(0) 编辑
摘要:1.联合概率,边缘概率,条件概率 $假设有两个离散随机变量X,Y,X有5种取值,Y有3种取值,做N次试验,其中我们 对X和Y 都进⾏取样,把X = x_i且Y = y_j的试验的数量记作n_{ij}。并且,把X取值x_i(与Y 的取 值⽆关)的试验的数量记作c_i,类似地,把Y 取值y_j的试验的数 阅读全文
posted @ 2022-02-12 23:36 筷点雪糕侠 阅读(123) 评论(0) 推荐(0) 编辑
摘要:1.机器学习问题分类 $\begin{cases} 监督学习\begin{cases} 回归问题(regression,连续)\ 分类问题(classification,离散)\ \end{cases}\ 无监督学习\begin{cases} 聚类(clustering)\ 密度估计(density 阅读全文
posted @ 2022-02-12 17:55 筷点雪糕侠 阅读(134) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示