摘要: 循环神经网络(RNN) 人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。 传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里 阅读全文
posted @ 2017-09-21 22:02 蓝鲸王子 阅读(1749) 评论(0) 推荐(0) 编辑
摘要: 矩阵奇异值的物理意义是什么?如何更好地理解奇异值分解?下面我们用图片的例子来扼要分析。 矩阵的奇异值是一个数学意义上的概念,一般是由奇异值分解(Singular Value Decomposition,简称SVD分解)得到。如果要问奇异值表示什么物理意义,那么就必须考虑在不同的实际工程应用中奇异值所 阅读全文
posted @ 2017-09-21 20:04 蓝鲸王子 阅读(3582) 评论(0) 推荐(0) 编辑
摘要: 前言: 找工作时(IT行业),除了常见的软件开发以外,机器学习岗位也可以当作是一个选择,不少计算机方向的研究生都会接触这个,如果你的研究方向是机器学习/数据挖掘之类,且又对其非常感兴趣的话,可以考虑考虑该岗位,毕竟在机器智能没达到人类水平之前,机器学习可以作为一种重要手段,而随着科技的不断发展,相信 阅读全文
posted @ 2017-09-21 18:51 蓝鲸王子 阅读(601) 评论(0) 推荐(1) 编辑
摘要: 前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,虽然和MLP的 阅读全文
posted @ 2017-09-21 10:35 蓝鲸王子 阅读(876) 评论(0) 推荐(0) 编辑
摘要: 本文主要是学习下Linear Decoder已经在大图片中经常采用的技术convolution和pooling,分别参考网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中对应的章节部分。 Linear Decoders: 阅读全文
posted @ 2017-09-21 10:23 蓝鲸王子 阅读(545) 评论(0) 推荐(0) 编辑
摘要: 在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎完全可微分的)。此外,复杂的激活函数也许产生一些梯度消失或爆炸的问题。因此,神经网络倾向于部署若干个特定的激活 阅读全文
posted @ 2017-09-21 09:57 蓝鲸王子 阅读(3010) 评论(0) 推荐(2) 编辑
摘要: 1. 深度学习流程简介 1)一次性设置(One time setup) - 激活函数(Activation functions) - 数据预处理(Data Preprocessing) - 权重初始化(Weight Initialization) - 正则化(Regularization:避免过拟合 阅读全文
posted @ 2017-09-21 09:53 蓝鲸王子 阅读(1720) 评论(0) 推荐(0) 编辑