上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 14 下一页
摘要: MCMC(一)蒙特卡罗方法 MCMC(二)马尔科夫链 MCMC(三)MCMC采样和M-H采样 MCMC(四)Gibbs采样 在MCMC(一)蒙特卡罗方法中,我们讲到了如何用蒙特卡罗方法来随机模拟求解一些复杂的连续积分或者离散求和的方法,但是这个方法需要得到对应的概率分布的样本集,而想得到这样的样本集 阅读全文
posted @ 2017-03-28 15:05 刘建平Pinard 阅读(117465) 评论(150) 推荐(49) 编辑
摘要: MCMC(一)蒙特卡罗方法 MCMC(二)马尔科夫链 MCMC(三)MCMC采样和M-H采样 MCMC(四)Gibbs采样 作为一种随机采样方法,马尔科夫链蒙特卡罗(Markov Chain Monte Carlo,以下简称MCMC)在机器学习,深度学习以及自然语言处理等领域都有广泛的应用,是很多复 阅读全文
posted @ 2017-03-27 15:08 刘建平Pinard 阅读(176821) 评论(116) 推荐(69) 编辑
摘要: 在前面我们讲到了深度学习的两类神经网络模型的原理,第一类是前向的神经网络,即DNN和CNN。第二类是有反馈的神经网络,即RNN和LSTM。今天我们就总结下深度学习里的第三类神经网络模型:玻尔兹曼机。主要关注于这类模型中的受限玻尔兹曼机(Restricted Boltzmann Machine,以下简 阅读全文
posted @ 2017-03-11 09:50 刘建平Pinard 阅读(47079) 评论(43) 推荐(17) 编辑
摘要: 在循环神经网络(RNN)模型与前向反向传播算法中,我们总结了对RNN模型做了总结。由于RNN也有梯度消失的问题,因此很难处理长序列的数据,大牛们对RNN做了改进,得到了RNN的特例LSTM(Long Short-Term Memory),它可以避免常规RNN的梯度消失,因此在工业界得到了广泛的应用。 阅读全文
posted @ 2017-03-08 15:38 刘建平Pinard 阅读(93938) 评论(173) 推荐(34) 编辑
摘要: 在前面我们讲到了DNN,以及DNN的特例CNN的模型和前向反向传播算法,这些算法都是前向反馈的,模型的输出和模型本身没有关联关系。今天我们就讨论另一类输出和模型间有反馈的神经网络:循环神经网络(Recurrent Neural Networks ,以下简称RNN),它广泛的用于自然语言处理中的语音识 阅读全文
posted @ 2017-03-06 19:57 刘建平Pinard 阅读(154557) 评论(217) 推荐(27) 编辑
摘要: 在卷积神经网络(CNN)前向传播算法中,我们对CNN的前向传播算法做了总结,基于CNN前向传播算法的基础,我们下面就对CNN的反向传播算法做一个总结。在阅读本文前,建议先研究DNN的反向传播算法:深度神经网络(DNN)反向传播算法(BP) 1. 回顾DNN的反向传播算法 我们首先回顾DNN的反向传播 阅读全文
posted @ 2017-03-03 14:13 刘建平Pinard 阅读(201847) 评论(256) 推荐(60) 编辑
摘要: 在卷积神经网络(CNN)模型结构中,我们对CNN的模型结构做了总结,这里我们就在CNN的模型基础上,看看CNN的前向传播算法是什么样子的。重点会和传统的DNN比较讨论。 1. 回顾CNN的结构 在上一篇里,我们已经讲到了CNN的结构,包括输出层,若干的卷积层+ReLU激活函数,若干的池化层,DNN全 阅读全文
posted @ 2017-03-02 12:41 刘建平Pinard 阅读(69687) 评论(56) 推荐(16) 编辑
摘要: 在前面我们讲述了DNN的模型与前向反向传播算法。而在DNN大类中,卷积神经网络(Convolutional Neural Networks,以下简称CNN)是最为成功的DNN特例之一。CNN广泛的应用于图像识别,当然现在也应用于NLP等其他领域,本文我们就对CNN的模型结构做一个总结。 在学习CNN 阅读全文
posted @ 2017-03-01 14:31 刘建平Pinard 阅读(206629) 评论(79) 推荐(32) 编辑
摘要: 和普通的机器学习算法一样,DNN也会遇到过拟合的问题,需要考虑泛化,这里我们就对DNN的正则化方法做一个总结。 1. DNN的L1&L2正则化 想到正则化,我们首先想到的就是L1正则化和L2正则化。L1正则化和L2正则化原理类似,这里重点讲述DNN的L2正则化。 而DNN的L2正则化通常的做法是只针 阅读全文
posted @ 2017-02-27 14:20 刘建平Pinard 阅读(40405) 评论(40) 推荐(13) 编辑
摘要: 在深度神经网络(DNN)反向传播算法(BP)中,我们对DNN的前向反向传播算法的使用做了总结。里面使用的损失函数是均方差,而激活函数是Sigmoid。实际上DNN可以使用的损失函数和激活函数不少。这些损失函数和激活函数如何选择呢?下面我们就对DNN损失函数和激活函数的选择做一个总结。 1. 均方差损 阅读全文
posted @ 2017-02-24 14:50 刘建平Pinard 阅读(85894) 评论(164) 推荐(14) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 14 下一页