03 2015 档案

摘要:起源:自动编码器单自动编码器,充其量也就是个强化补丁版PCA,只用一次好不过瘾。于是Bengio等人在2007年的 Greedy Layer-Wise Training of Deep Networks中,仿照stacked RBM构成的DBN,提出Stacked AutoEncoder,为非监督学... 阅读全文
posted @ 2015-03-30 17:23 Physcal 阅读(15624) 评论(0) 推荐(0) 编辑
摘要:起源:PCA、特征提取....随着一些奇怪的高维数据出现,比如图像、语音,传统的统计学-机器学习方法遇到了前所未有的挑战。数据维度过高,数据单调,噪声分布广,传统方法的“数值游戏”很难奏效。数据挖掘?已然挖不出有用的东西。为了解决高维度的问题,出现的线性学习的PCA降维方法,PCA的数学理论确实无懈... 阅读全文
posted @ 2015-03-26 22:51 Physcal 阅读(39219) 评论(5) 推荐(7) 编辑
摘要:起源:喵星人的视觉皮层 1958 年,一群奇葩的神经科学家把电极插到喵星人的脑子里,去观察视觉皮层的活动。从而推断生物视觉系统是从物体的小部分入手,经过层层抽象,最后拼起来送入处理中心,减少物体判断的可疑性的。这种方法就与BP网络背道而驰。BP网络认为,大脑每个神经元都要感知物体的全部(全像素全连接... 阅读全文
posted @ 2015-03-19 01:51 Physcal 阅读(3820) 评论(5) 推荐(0) 编辑
摘要:Reference:Theano入门三部曲http://deeplearning.net/tutorial/logreg.html (Softmax回归)http://deeplearning.net/tutorial/mlp.html(MLP多层感知器)http://deeplearning.ne... 阅读全文
posted @ 2015-03-17 15:24 Physcal 阅读(6750) 评论(1) 推荐(1) 编辑
摘要:起源:线性神经网络与单层感知器古老的线性神经网络,使用的是单层Rosenblatt感知器。该感知器模型已经不再使用,但是你可以看到它的改良版:Logistic回归。可以看到这个网络,输入->加权->映射->计算分类误差->迭代修改W、b,其实和数学上的回归拟合别无二致。Logistic回归对该模型进... 阅读全文
posted @ 2015-03-08 15:47 Physcal 阅读(4314) 评论(1) 推荐(0) 编辑
摘要:Reference:http://ufldl.stanford.edu/wiki/index.php/Softmax_regressionhttp://deeplearning.net/tutorial/logreg.html起源:Logistic的二类分类Softmax回归是Logistic回归的... 阅读全文
posted @ 2015-03-05 19:42 Physcal 阅读(4324) 评论(1) 推荐(1) 编辑
摘要:起源:决策树切分数据集决策树每次决策时,按照一定规则切分数据集,并将切分后的小数据集递归处理。这样的处理方式给了线性回归处理非线性数据一个启发。能不能先将类似特征的数据切成一小部分,再将这一小部分放大处理,使用线性的方法增加准确率呢?Part I: 树的枝与叶枝:二叉 or 多叉? 在AdaBoos... 阅读全文
posted @ 2015-03-01 23:55 Physcal 阅读(1154) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示