上一页 1 ··· 23 24 25 26 27 28 29 30 31 ··· 53 下一页

Andrew Ng机器学习公开课笔记–Independent Components Analysis

摘要: 网易公开课,第15课 notes,11 参考, PCA本质是旋转找到新的基(basis),即坐标轴,并且新的基的维数大大降低 ICA也是找到新的基,但是目的是完全不一样的,而且ICA是不会降维的 对于ICA,最经典的问题,“鸡尾酒会”问题 在鸡尾酒会,上很多人同时在说话,还有背景音乐,如果我们放若干个话筒进行声音采集 是否可以从采集到的数据中,分离出每个人独立的声音 假设... 阅读全文
posted @ 2014-08-15 16:40 fxjwind 阅读(800) 评论(0) 推荐(0) 编辑

Andrew Ng机器学习公开课笔记–Principal Components Analysis (PCA)

摘要: 网易公开课,第14, 15课 notes,10 之前谈到的factor analysis,用EM算法找到潜在的因子变量,以达到降维的目的 这里介绍的是另外一种降维的方法,Principal Components Analysis (PCA), 比Factor Analysis更为直接,计算也简单些 参考,A Tutorial on Principal Component Analysi... 阅读全文
posted @ 2014-08-13 15:59 fxjwind 阅读(2114) 评论(0) 推荐(0) 编辑

Python For Data Analysis -- Pandas

摘要: 首先pandas的作者就是这本书的作者 对于Numpy,我们处理的对象是矩阵 pandas是基于numpy进行封装的,pandas的处理对象是二维表(tabular, spreadsheet-like),和矩阵的区别就是,二维表是有元数据的 用这些元数据作为index更方便,而Numpy只有整形的index,但本质是一样的,所以大部分操作是共通的 大家碰到最多的二维表应用,... 阅读全文
posted @ 2014-08-12 17:43 fxjwind 阅读(4342) 评论(0) 推荐(2) 编辑

Python For Data Analysis -- NumPy

摘要: NumPy作为python科学计算的基础,为何python适合进行数学计算,除了简单易懂,容易学习 Python可以简单的调用大量的用c和fortran编写的legacy的库 Python科学计算的这几个库,单独安装还是蛮麻烦的,所以推荐这个包 http://www.continuum.io/downloads#all conda list #查看所有的可安装包 conda insta... 阅读全文
posted @ 2014-08-11 20:16 fxjwind 阅读(1208) 评论(0) 推荐(0) 编辑

Python For Data Analysis -- IPython

摘要: IPython Basics 首先比一般的python shell更方便一些 比如某些数据结构的pretty-printed,比如字典 更方便的,整段代码的copy,执行 并且可以兼容部分system shell , 比如目录浏览,文件操作等 Tab Completion 这个比较方便,可以在下面的case下,提示和补全未输入部分 a. 当前命名空间中的名字 b.... 阅读全文
posted @ 2014-08-08 16:53 fxjwind 阅读(868) 评论(0) 推荐(0) 编辑

Andrew Ng机器学习公开课笔记 – Factor Analysis

摘要: 网易公开课,第13,14课 notes,9 本质上因子分析是一种降维算法 参考,http://www.douban.com/note/225942377/,浅谈主成分分析和因子分析 把大量的原始变量,浓缩成少数几个因子变量 原始变量,代表浅层的表面现象,所以一定是很多和繁杂的 而因子变量,是代表深层的本质,因,是无法直接观察到的 所以因子分析,就是拨开现象发现本质的... 阅读全文
posted @ 2014-08-07 15:49 fxjwind 阅读(1742) 评论(0) 推荐(0) 编辑

Andrew Ng机器学习公开课笔记 -- Mixtures of Gaussians and the EM algorithm

摘要: 网易公开课,第12,13课 notes,7a, 7b,8 从这章开始,介绍无监督的算法 对于无监督,当然首先想到k means, 最典型也最简单,有需要直接看7a的讲义 Mixtures of Gaussians 如果要理解Mixtures of Gaussians,那先回去复习一下Gaussians Discriminant Analysis,高斯判别分析 首先高斯判别... 阅读全文
posted @ 2014-08-07 00:31 fxjwind 阅读(1458) 评论(0) 推荐(0) 编辑

Andrew Ng机器学习公开课笔记 -- Online Learning

摘要: 网易公开课,第11课 notes,http://cs229.stanford.edu/notes/cs229-notes6.pdf 和之前看到的batch learning算法不一样,batch learning一定是先用训练集进行训练,然后才进行预测 但是online learning,不必要一定有训练的过程,可以一边预测的同时一边训练 这个其实很现实,系统上线前也许很难收集到数... 阅读全文
posted @ 2014-08-02 23:19 fxjwind 阅读(2454) 评论(0) 推荐(0) 编辑

Machine Learning in Action -- Support Vector Machines

摘要: 虽然SVM本身算法理论,水比较深,很难懂 但是基本原理却非常直观易懂,就是找到与训练集中支持向量有最大间隔的超平面 形式化的描述: 其中需要满足m个约束条件,m为数据集大小,即数据集中的每个数据点function margin都是>=1,因为之前假设所有支持向量,即离超平面最近的点,的function margin为1 对于这种有约束条件的最优化问题,用拉格朗日定理,于是得到如下的形式... 阅读全文
posted @ 2014-07-24 16:43 fxjwind 阅读(561) 评论(0) 推荐(0) 编辑

Machine Learning in Action -- Logistic regression

摘要: 这个系列,重点关注如何实现,至于算法基础,参考Andrew的公开课 相较于线性回归,logistic回归更适合用于分类 因为他使用Sigmoid函数,因为分类的取值是0,1 对于分类,最完美和自然的函数,当然是Heaviside step function,即0-1阶跃函数,但是这个函数中数学上有时候比较难处理 所以用Sigmoid函数来近似模拟阶跃函数, 可以看到Sigmo... 阅读全文
posted @ 2014-07-22 14:32 fxjwind 阅读(790) 评论(0) 推荐(0) 编辑
上一页 1 ··· 23 24 25 26 27 28 29 30 31 ··· 53 下一页