11 2016 档案
摘要:UFLDL之卷积与池化 参考资料: "UFLDL教(http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B)及[tornadomeet的博客" 个人代码: "github地址" 卷积与池化 卷积 当输入数据的特征数很大时,若特
阅读全文
摘要:UFLDL之栈式自编码 参考资料: "UFLDL教程" 及 "tornadomeet的博客" 个人代码: "github地址" 栈式自编码算法介绍 微调问题 在自我学习的章节中,结合自编码特征提取与有监督的模型训练来预测数据的标签。假设使用的有监督模型是logistic classifier,则全部
阅读全文
摘要:UFLDL之自我学习 参考资料: "UFLDL教程" 及 "tornadomeet的博客" 个人代码: "github地址" 自我学习算法介绍 假设我们有大量数据集(其中既有已标注的,也有未标注的),那么,想要得到标注,通常是只使用已标注的数据得到模型。 但是这样对数据集的信息利用是不充分的(没有利
阅读全文
摘要:UFLDL之softmax回归 参考资料: "UFLDL教程" 及 "tornadomeet的博客" 个人代码: "github地址" 主成份分析与白化 softmax回归算法简介 softmax回归是一种监督学习算法,该模型是logistic回归模型在多分类问题上的推广。多分类问题中,类标签 $y
阅读全文
摘要:参考资料: "UFLDL教程" 及 "tornadomeet的博客" 个人代码: "github地址" 主成份分析与白化 PCA 1、PCA部分在Andrew Ng的Coursera公开课笔记中有涉及, "链接点这里" 2、由PCA部分,我们知道: sigma = x x' / m; [U,S,V]
阅读全文
摘要:最近半个月主要在学习UFLDL上的教程,感觉深度比较合适我这种只看过Andrew Ng公开课的新人,在此对UFLDL上的各种算法做一个归类整理。 自编码算法与稀疏性 了解稀疏自编码算法前必须了解神经网络的前向传播与反向传播算法。该部分在Coursera上的公开课也有涉及,并整理过相关笔记,此处不在赘
阅读全文