第五章 神经网络
摘要:读书笔记 周志华老师的《机器学习》 因为边看边记,所以写在随笔里,如果涉及版权问题,请您联系我立马删除,lvxia@mail.ustc.edu.cn 5.1 神经元模型 “神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。” 神经元
阅读全文
posted @
2016-07-21 22:37
开心咿呀
阅读(1499)
推荐(0)
西瓜书第四章 决策树
摘要:读书笔记 周志华老师的《机器学习》 4.1 基本流程 一个决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个属性测试;每个结点包含的样本集合根据属性测试的结果被划分到子结点中;根结点包含样本全集,从根结点到每个叶结点的路径对应了一个判定测试序列。 决策
阅读全文
posted @
2016-07-20 11:46
开心咿呀
阅读(2461)
推荐(0)
西瓜书第三章 线性模型
摘要:读书笔记 周志华老师的《机器学习》 因为边看边记,所以写在随笔里,如果涉及版权问题,请您联系我立马删除,lvxia@mail.ustc.edu.cn 3.1 基本形式 给定d个属性描述的示例 x = (x_1;x_2;...;x_3), 其中x_i是X在第i个属性上的取值,线性模型视图学得一个通过属
阅读全文
posted @
2016-07-19 23:14
开心咿呀
阅读(2242)
推荐(0)
西瓜书第二章 模型评估与选择
摘要:第2章 模型评估与选择 2.1 经验误差与过拟合 学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”;过拟合一般是由于学习能力过于强大,以至于把训练样本所包含的不太一般的特性都学到了,而欠拟合则通常是由学习能力低下而造成的。欠拟合比较容易克服,例如在决策树学习中扩
阅读全文
posted @
2016-07-18 23:16
开心咿呀
阅读(634)
推荐(0)
西瓜书第一章 绪论
摘要:人工智能发展历程: (1)推理期:二十世纪五十年代到七十年代初。 (2)知识期:二十世纪七十年代中期,专家系统。 (3)学习期:二十世纪八十年代以来,被研究最多、应用最广的是“从样例中学习”。 一大主流是符号主义学习,代表包括决策树和基于逻辑的学习;二十世纪九十年代中期之前,“从样例中学习”的另一主
阅读全文
posted @
2016-07-18 17:26
开心咿呀
阅读(327)
推荐(0)
ReverseString
摘要:今天第一次刷leetcode的题啊,最简单的一题,就出现超时不通过╮(╯▽╰)╭ 题目如下: 我写的代码是:(真的是最笨的方法╮(╯▽╰)╭) 提交以后,超时啊~~ 看了别人的讨论,如下几种方法 Many acceptable answers Cheating Method using String
阅读全文
posted @
2016-07-15 22:58
开心咿呀
阅读(216)
推荐(0)
RuntimeError: module compiled against API version 0xa but this version of numpy is 0x9
摘要:之前测试安装好Theano之后就去安装Tensorflow,然后再回来执行Theano的测试语句的时候,就出现以下错误了: google了一下,尝试了一下解决方法 找出numpy目录 再执行python test.py就没有问题。 原因我也搞不清楚。。。而且我还担心numpy改成了numpy_old
阅读全文
posted @
2016-07-14 21:10
开心咿呀
阅读(15681)
推荐(0)
ubuntu14.04 安装 tensorflow
摘要:如果内容侵权的话,联系我,我会立马删了的~因为参考的太多了,如果一一联系再等回复,战线太长了~~蟹蟹给我贡献技术源泉的作者们~ 最近准备从理论和实验两个方面学习深度学习,所以,前面装好了Theano环境,后来知乎上看到这个回答,就调研了一下各个深度学习框架,我没有看源码,调研也不是很深入,仅仅是为了
阅读全文
posted @
2016-07-14 20:17
开心咿呀
阅读(12097)
推荐(1)
艰辛五天:Ubuntu14.04+显卡驱动+cuda+Theano环境安装过程
摘要:题记:从一开始不知道显卡就是GPU(虽然是学计算机的,但是我真的不知道…脑残如我也是醉了),到搞好所有这些环境前后弄了5天时间,前面的买显卡、装显卡和装双系统见另一篇博客装显卡、双系统,这篇主要记录我怎么配置后面的环境,虽然中间重装Ubuntu三次,后面安装过程也没差别。 基础平台:64-bit,U
阅读全文
posted @
2016-07-11 18:00
开心咿呀
阅读(4240)
推荐(0)
装显卡、双系统
摘要:作为硬件小白的我,买显卡的前一天才知道GPU就是显卡。。。 参考介绍:http://www.thinkface.cn/thread-2945-1-1.html、http://www.chinacloud.cn/show.aspx?id=22710&cid=17 Best GPU overall: G
阅读全文
posted @
2016-07-08 20:57
开心咿呀
阅读(581)
推荐(0)
win安装Theano
摘要:艰辛的安装Theano过程,把其中遇到的问题记录下来,三台机子都尝试了安装Theao,系统分别为:A机:win7 64-bit(笔记本)、B机:win7 64-bit(台式机)、C机:win8 64-bit(虽然前面两台机子的系统一样,但是安装过程中出的问题不一样)。 首先参考了博客: http:/
阅读全文
posted @
2016-07-06 20:30
开心咿呀
阅读(422)
推荐(0)
安装gensim
摘要:安装了一天的gensim,其中因为版本不一致等等各种问题纠结了好久,现记录如下: 正确安装方式: 1. 安装python2.7 2. 下载Python Extension Packages对应版本的numpy、scipy、gensim 3. 进入python安装目录下的Scripts目录 执行: pip install numpy***.whl p...
阅读全文
posted @
2016-07-05 22:25
开心咿呀
阅读(3716)
推荐(0)
ReLu(Rectified Linear Units)激活函数
摘要:转载自 ReLu(Rectified Linear Units)激活函数 论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper) 起源:传统激活函数、脑神经元激活频率研究、稀疏激活性 传统Sigmoid系激活函数 传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被...
阅读全文
posted @
2016-07-05 22:22
开心咿呀
阅读(519)
推荐(0)
转载 deep learning:八(SparseCoding稀疏编码)
摘要:转载 http://blog.sina.com.cn/s/blog_4a1853330102v0mr.html Sparse coding: 本节将简单介绍下sparse coding(稀疏编码),因为sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征。本文的内容是参考斯坦福deep learning教程:Sparse Coding,Sp...
阅读全文
posted @
2016-07-04 10:28
开心咿呀
阅读(678)
推荐(0)
转载 Deep learning:一(基础知识_1)
摘要:前言: 最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machine learning的基础知识,见网页:http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=DeepLe...
阅读全文
posted @
2016-07-04 10:15
开心咿呀
阅读(182)
推荐(0)
转载 Deep learning:二(linear regression练习)
摘要:前言 本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex2/ex2.html。本题给出的是50个数据样本点,其中x为这50个小朋友到的年龄,年龄为2岁到8岁,年龄可有小...
阅读全文
posted @
2016-07-04 10:14
开心咿呀
阅读(243)
推荐(0)
转载 Deep learning:三(Multivariance Linear Regression练习)
摘要:前言: 本文主要是来练习多变量线性回归问题(其实本文也就3个变量),参考资料见网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex3/ex3.html.其实在上一篇博文Deep learning:二(linear regression练习)中已经...
阅读全文
posted @
2016-07-04 10:13
开心咿呀
阅读(310)
推荐(0)
转载 Deep learning:四(logistic regression练习)
摘要:前言: 本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex4/ex4.html。这里给出的训练样本的特征为80个学生的两门功课的分数,样本值为对应的同学是否允许被上大学,如...
阅读全文
posted @
2016-07-04 10:11
开心咿呀
阅读(196)
推荐(0)
转载 Deep learning:五(regularized线性回归练习)
摘要:前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象。本文参考的资料参考网页:http://openclassroom.stan...
阅读全文
posted @
2016-07-04 10:10
开心咿呀
阅读(235)
推荐(0)
转载 Deep learning:七(基础知识_2)
摘要:前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各种各样的机器学习算法呢?比如这里马上要讲的神经网络算法。其实原因很简单,在前面的一系列博文练习中可以...
阅读全文
posted @
2016-07-04 10:06
开心咿呀
阅读(147)
推荐(0)
转载 Deep learning:六(regularized logistic回归练习)
摘要:前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php...
阅读全文
posted @
2016-07-03 21:33
开心咿呀
阅读(385)
推荐(0)