01 2015 档案

摘要:现在机器学习算法在分类、回归、数据挖掘等问题上运用的十分广泛,对于初学者来说,可能一听到'算法'或其他的专属名词都感觉高深莫测,以致很多人望而却步,这让很多人在处理很多问题上失去了一个很有用的工具。机器学习的算法并没有那么高深,这里我就用最通俗的语言来细致解释算法的表达的意义,,并且很多人对程序的实... 阅读全文
posted @ 2015-01-18 22:24 happy_lion 阅读(1810) 评论(0) 推荐(0) 编辑
摘要:上一个博客已经讲了softmax理论部分,接下来我们就来做个实验,我们有一些手写字体图片(28*28),训练样本(train-images.idx3-ubyte里面的图像对应train-labels.idx1-ubyte)和测试样本(t10k-images.idx3-ubyte里面的图片对应t10k... 阅读全文
posted @ 2015-01-15 11:29 happy_lion 阅读(17223) 评论(2) 推荐(1) 编辑
摘要:前面我们已经说了logistic回归,训练样本是,(且这里的是d维,下面模型公式的x是d+1维,其中多出来的一维是截距横为1,这里的y=±1也可以写成其他的值,这个无所谓不影响模型,只要是两类问题就可以),训练好这个模型中参数θ以后(或者是这个模型,这俩是一个模型),然后给入一个新的,我们就可以根据... 阅读全文
posted @ 2015-01-12 20:49 happy_lion 阅读(9510) 评论(0) 推荐(2) 编辑
摘要:求使隐藏层某一个神经元取到最大激活的输入问题,即对这个函数求最值:…………………………………...(j=1,2..100)是100个方程未知量其中f是sigmoid函数我们知道sigmoid函数是单调递增的,那么对上式函数求最值,就是对里面的函数求最值。,是常数,所以就是求这个方程的最大值。怎么求最... 阅读全文
posted @ 2015-01-09 16:56 happy_lion 阅读(702) 评论(0) 推荐(0) 编辑
摘要:在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 。自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 。下图是一个自编码神经网络的示例。通过训练,我们使输出 接近于输入 。当我们为自编码神经网络加入某些限制,... 阅读全文
posted @ 2015-01-07 22:27 happy_lion 阅读(26685) 评论(4) 推荐(4) 编辑