2016年7月5日
摘要: 安装了一天的gensim,其中因为版本不一致等等各种问题纠结了好久,现记录如下: 正确安装方式: 1. 安装python2.7 2. 下载Python Extension Packages对应版本的numpy、scipy、gensim 3. 进入python安装目录下的Scripts目录 执行: pip install numpy***.whl p... 阅读全文
posted @ 2016-07-05 22:25 开心咿呀 阅读(3635) 评论(0) 推荐(0) 编辑
摘要: 转载自 ReLu(Rectified Linear Units)激活函数 论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper) 起源:传统激活函数、脑神经元激活频率研究、稀疏激活性 传统Sigmoid系激活函数 传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被... 阅读全文
posted @ 2016-07-05 22:22 开心咿呀 阅读(487) 评论(0) 推荐(0) 编辑
  2016年7月4日
摘要: 转载 http://blog.sina.com.cn/s/blog_4a1853330102v0mr.html Sparse coding: 本节将简单介绍下sparse coding(稀疏编码),因为sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征。本文的内容是参考斯坦福deep learning教程:Sparse Coding,Sp... 阅读全文
posted @ 2016-07-04 10:28 开心咿呀 阅读(658) 评论(0) 推荐(0) 编辑
摘要: 前言: 最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machine learning的基础知识,见网页:http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=DeepLe... 阅读全文
posted @ 2016-07-04 10:15 开心咿呀 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 前言 本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex2/ex2.html。本题给出的是50个数据样本点,其中x为这50个小朋友到的年龄,年龄为2岁到8岁,年龄可有小... 阅读全文
posted @ 2016-07-04 10:14 开心咿呀 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 前言: 本文主要是来练习多变量线性回归问题(其实本文也就3个变量),参考资料见网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex3/ex3.html.其实在上一篇博文Deep learning:二(linear regression练习)中已经... 阅读全文
posted @ 2016-07-04 10:13 开心咿呀 阅读(268) 评论(0) 推荐(0) 编辑
摘要: 前言: 本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex4/ex4.html。这里给出的训练样本的特征为80个学生的两门功课的分数,样本值为对应的同学是否允许被上大学,如... 阅读全文
posted @ 2016-07-04 10:11 开心咿呀 阅读(192) 评论(0) 推荐(0) 编辑
摘要: 前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象。本文参考的资料参考网页:http://openclassroom.stan... 阅读全文
posted @ 2016-07-04 10:10 开心咿呀 阅读(232) 评论(0) 推荐(0) 编辑
摘要: 前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各种各样的机器学习算法呢?比如这里马上要讲的神经网络算法。其实原因很简单,在前面的一系列博文练习中可以... 阅读全文
posted @ 2016-07-04 10:06 开心咿呀 阅读(143) 评论(0) 推荐(0) 编辑
  2016年7月3日
摘要: 前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php... 阅读全文
posted @ 2016-07-03 21:33 开心咿呀 阅读(384) 评论(0) 推荐(0) 编辑