上一页 1 2 3 4 5 6 7 8 9 ··· 13 下一页
摘要: 原文 https://www.cnblogs.com/wacc/p/5495448.html 贝叶斯线性回归 问题背景: 为了与PRML第一章一致,我们假定数据出自一个高斯分布: \[p(t|x,\mathbf{w},\beta)=\mathcal{N}(t|y(x,\mathbf{w}),\bet 阅读全文
posted @ 2022-03-14 20:43 筷点雪糕侠 阅读(338) 评论(0) 推荐(0) 编辑
摘要: (1.68)p(t|x,X,T)=p(t|x,w)p(w|X,T)dw 1.p(t,x,X,T)=p(t,x,X,T,w)dw =p(t|x,X,T,w)p(x,X,T,w)dw \(=\int p(t|x 阅读全文
posted @ 2022-03-13 23:44 筷点雪糕侠 阅读(287) 评论(0) 推荐(0) 编辑
摘要: p(w|X,T,α,β)p(T|X,w,β)p(w|α) ln lnp(T|X,w,β)+lnp(w|α) 回顾 \(\ln p(T|X, w, \beta) = -\frac{ 阅读全文
posted @ 2022-03-13 22:48 筷点雪糕侠 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 一些数学符号 N 样本量 xn 每一个数据点,或者叫样本点,工程中/训练集中的x_train tn 训练集中的y_train CDF 累计概率分布 PDF 概率密度函数 D 观测 X=(X1,...,XN)T N 阅读全文
posted @ 2022-03-13 22:10 筷点雪糕侠 阅读(148) 评论(0) 推荐(0) 编辑
摘要: (1.27)py(y)=px(x)|dxdy|=px(g(y))|g(y)| x=g(y) f(x)=f(g(y)) \(观测 阅读全文
posted @ 2022-03-13 15:05 筷点雪糕侠 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 局部变分方法 利用局部信息进行变分推断 寻找上界或者下界 PPpipj,p~jpj使p=pip~jijpi \(f(x)是 阅读全文
posted @ 2022-03-12 17:41 筷点雪糕侠 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 为什么需要近似推断 现在棘手的问题在于 1.xzθ 2. 两种方法达到近似推断 1.决定性方法,-有解析解,快速,但是求出的是局部解 2.随机性方法,-慢,要采样多次,但是可以得到全局解(有证明的) 决定性推断 阅读全文
posted @ 2022-03-12 10:52 筷点雪糕侠 阅读(334) 评论(0) 推荐(0) 编辑
摘要: 1.指数族分布的标准形式 p(x|η)=h(x)g(η)exp{ηTu(x)} B p(x|η)=h(x)exp{ηTϕ(x)A(η)} \(这里的u(x)=\ 阅读全文
posted @ 2022-03-09 22:52 筷点雪糕侠 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 二维连续函数的傅里叶变换 一维的相关推导见本博客其他章节 这里是二维傅里叶变换的说明 一维离散函数的傅里叶变换 二维离散函数的傅里叶变换 对二维函数的波形没法理解的可以看这张图,u,v就是对应这张图两边的的频率 频谱图和时域图的说明 大家看下的图片,8个字母的时域图和频域图片比较,有些有趣的结论 Z 阅读全文
posted @ 2022-03-07 22:16 筷点雪糕侠 阅读(646) 评论(0) 推荐(0) 编辑
摘要: 原理见 https://blog.csdn.net/schwein_van/article/details/84336633 https://blog.csdn.net/qq_41747057/article/details/116013500 或者可以见B站视频 https://www.bilib 阅读全文
posted @ 2022-03-07 20:01 筷点雪糕侠 阅读(367) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 13 下一页
点击右上角即可分享
微信分享提示