03 2015 档案
摘要:起源:自动编码器单自动编码器,充其量也就是个强化补丁版PCA,只用一次好不过瘾。于是Bengio等人在2007年的 Greedy Layer-Wise Training of Deep Networks中,仿照stacked RBM构成的DBN,提出Stacked AutoEncoder,为非监督学...
阅读全文
摘要:起源:PCA、特征提取....随着一些奇怪的高维数据出现,比如图像、语音,传统的统计学-机器学习方法遇到了前所未有的挑战。数据维度过高,数据单调,噪声分布广,传统方法的“数值游戏”很难奏效。数据挖掘?已然挖不出有用的东西。为了解决高维度的问题,出现的线性学习的PCA降维方法,PCA的数学理论确实无懈...
阅读全文
摘要:起源:喵星人的视觉皮层 1958 年,一群奇葩的神经科学家把电极插到喵星人的脑子里,去观察视觉皮层的活动。从而推断生物视觉系统是从物体的小部分入手,经过层层抽象,最后拼起来送入处理中心,减少物体判断的可疑性的。这种方法就与BP网络背道而驰。BP网络认为,大脑每个神经元都要感知物体的全部(全像素全连接...
阅读全文
摘要:Reference:Theano入门三部曲http://deeplearning.net/tutorial/logreg.html (Softmax回归)http://deeplearning.net/tutorial/mlp.html(MLP多层感知器)http://deeplearning.ne...
阅读全文
摘要:起源:线性神经网络与单层感知器古老的线性神经网络,使用的是单层Rosenblatt感知器。该感知器模型已经不再使用,但是你可以看到它的改良版:Logistic回归。可以看到这个网络,输入->加权->映射->计算分类误差->迭代修改W、b,其实和数学上的回归拟合别无二致。Logistic回归对该模型进...
阅读全文
摘要:Reference:http://ufldl.stanford.edu/wiki/index.php/Softmax_regressionhttp://deeplearning.net/tutorial/logreg.html起源:Logistic的二类分类Softmax回归是Logistic回归的...
阅读全文
摘要:起源:决策树切分数据集决策树每次决策时,按照一定规则切分数据集,并将切分后的小数据集递归处理。这样的处理方式给了线性回归处理非线性数据一个启发。能不能先将类似特征的数据切成一小部分,再将这一小部分放大处理,使用线性的方法增加准确率呢?Part I: 树的枝与叶枝:二叉 or 多叉? 在AdaBoos...
阅读全文