摘要: from 猴子 manifold learning 流形学习 流形学习是个很广泛的概念。这里我主要谈的是自从2000年以后形成的流形学习概念和其主要代表方法。自从2000年以后,流形学习被认为属于非线性降维的一个分支。众所周知,引导这一领域迅速发展的是2000年Science杂志上的两篇文章: Is 阅读全文
posted @ 2016-08-02 18:23 xsc906476903 阅读(205) 评论(1) 推荐(1) 编辑
摘要: 最近看见了一些很有趣的东西 先把链接放在这里,以后再看 venture:http://probcomp.csail.mit.edu/venture/ 一本书:http://dippl.org/?utm_source=top.caibaojian.com/52044 http://www.tuicoo 阅读全文
posted @ 2016-06-19 11:51 xsc906476903 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 人类的视觉能力基本上是出生后逐渐习得的,婴儿不是眼睛发育不足,而是头脑暂时还不会很好运用眼睛去观察世界,就好比蹩脚的摄影师,拿着顶级单反也拍不出好片。 婴儿开始看世界的过程,就是对视觉处理神经元网络进行训练的过程。初生婴儿需要学习的第一课是分辨物体轮廓,最初他们看到的世界只是各种颜色和明暗的块块,经 阅读全文
posted @ 2016-06-08 21:41 xsc906476903 阅读(411) 评论(0) 推荐(1) 编辑
摘要: http://www.cnblogs.com/mrxsc/p/5571358.html 视觉信息的处理是一个非常复杂的过程,这不由得让我想到了同样位于人们大脑中的新大脑皮层,作为人类智能的起始之地,它的运作也不简单,但是在婴儿时期,它的各部分单元并没有什么不同,不同的功能是在婴儿接受了外界的各种刺激 阅读全文
posted @ 2016-06-08 21:39 xsc906476903 阅读(859) 评论(0) 推荐(1) 编辑
摘要: 一个月的时间写了一个Naive的编译器, 采用的是ANTLR + VISIT模式写的前端+后端。 这种模式的优点是简单易懂,写起来不会卡壳,并且非常直观易于调试 但是缺点是代码的拓展性非常不友好,想要在中途某个点加入优化会非常困难(只要架构不好就会牵扯到全局),只能一条路顺着做 接着会更新简单易懂的 阅读全文
posted @ 2016-05-08 23:58 xsc906476903 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 寄存器: 寄存器号 符号名 用途 0 始终为0 看起来象浪费,其实很有用 1 at 保留给汇编器使用 2-3 v0,v1 函数返回值 4-7 a0-a3 前头几个函数参数 8-15 t0-t7 临时寄存器,子过程可以不保存就使用 24-25 t8,t9 同上 16-23 s0-s7 寄存器变量,子过 阅读全文
posted @ 2016-04-10 23:19 xsc906476903 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 前言: 这节课来学习下Deep learning领域比较出名的一类算法——sparse autoencoder,即稀疏模式的自动编码。我们知道,deep learning也叫做unsupervised learning,所以这里的sparse autoencoder也应是无监督的。按照前面的博文:D 阅读全文
posted @ 2016-03-23 13:01 xsc906476903 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各 阅读全文
posted @ 2016-03-23 12:59 xsc906476903 阅读(235) 评论(0) 推荐(0) 编辑
摘要: 前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://opencl 阅读全文
posted @ 2016-03-23 12:58 xsc906476903 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越 阅读全文
posted @ 2016-03-23 12:57 xsc906476903 阅读(107) 评论(0) 推荐(0) 编辑