会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
首页
联系
Github
友情链接
博客园
管理
关于
凯的果壳屋
2020年6月22日
贝叶斯神经网络
摘要: 概述 贝叶斯神经网络是一类神经网络模型,模型的参数不是固定的值,而是分布,如$(图1)$所示。这样设置,我们就能够对数据和模型的不确定性(uncertainty)进行评估。例如有一个函数$f(x)=y$,当函数$f$确定时,输入$x$能得到唯一确定的y,如果我们调整$f$,得到的$y$就会发生变化。
阅读全文
posted @ 2020-06-22 23:46 Kokosnuss4
阅读(5764)
评论(1)
推荐(0)
编辑
自编码器
摘要: 引言 前面三篇文章介绍了变分推断(variational inference),这篇文章将要介绍变分自编码器,但是在介绍变分自编码器前,我们先来了解一下传统的自编码器。 自编码器 自编码器(autoencoder)属于无监督学习模型(unsupervised learning),更严格地说属于自监督
阅读全文
posted @ 2020-06-22 23:45 Kokosnuss4
阅读(1930)
评论(0)
推荐(0)
编辑
变分推断(三)—— 进阶(续)
摘要: SVI变分推断的前两篇介绍了变分推断的构造方法、目标函数以及优化算法CAVI,同时上一篇末尾提到,CAVI并不适用于大规模的数据的情况,而这一篇将要介绍一种随机优化(stochastic optimization)的方法。这种优化方法与随机梯度下降(Stochastic Gradient Desce
阅读全文
posted @ 2020-06-22 23:44 Kokosnuss4
阅读(1523)
评论(0)
推荐(0)
编辑
变分推断(二)—— 进阶
摘要: 贝叶斯推断由上一篇我们已经了解到,对于未知的分布或者难以计算的问题,我们可以通过变分推断将其转换为简单的可计算的问题来求解。现在我们贝叶斯统计的角度,来看一个难以准确计算的案例。 推断问题可以理解为计算条件概率$p(y|x)$。利用贝叶斯定理,可以将计算条件概率(或者说后验概率,posterior)
阅读全文
posted @ 2020-06-22 23:43 Kokosnuss4
阅读(1319)
评论(0)
推荐(0)
编辑
变分推断(一)
摘要: 引言GAN专题介绍了GAN的原理以及一些变种,这次打算介绍另一个重要的生成模型——变分自编码器(Variational AutoEncoder,VAE)。但在介绍编码器之前,这里会先花一点时间介绍变分推断(Variational Inference,VI),而这一小系列最后还会介绍贝叶斯神经网络——
阅读全文
posted @ 2020-06-22 23:42 Kokosnuss4
阅读(2389)
评论(0)
推荐(0)
编辑
公告
导航
博客园
首页
新随笔
新文章
联系
订阅
管理
点赞
关注
收藏
←
→
↓
↑