潜心学习慧

导航

2012年10月29日

机器学习降维算法一:PCA (Principal Component Analysis)

摘要: http://www.cnblogs.com/xbinworld/archive/2011/11/24/pca.html前言:机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。当然还有一大类方法本质上也是做了降维,叫做feature selection,目的是从原始的数据feature集合中挑选一部分作为数据的表达。目前大部分 阅读全文

posted @ 2012-10-29 13:36 潜心学习慧 阅读(327) 评论(0) 推荐(0) 编辑

再谈协方差矩阵之主成分分析

摘要: http://pinkyjie.com/2011/02/24/covariance-pca/自从上次谈了协方差矩阵之后,感觉写这种科普性文章还不错,那我就再谈一把协方差矩阵吧。上次那篇文章在理论层次介绍了下协方差矩阵,没准很多人觉得这东西用处不大,其实协方差矩阵在好多学科里都有很重要的作用,比如多维的正态分布,再比如今天我们今天的主角——主成分分析(Principal Component Analysis,简称PCA)。结合PCA相信能对协方差矩阵有个更深入的认识~PCA的缘起PCA大概是198x年提出来的吧,简单的说,它是一种通用的降维工具。在我们处理高维数据的时候,为了能降低后续计算的复杂 阅读全文

posted @ 2012-10-29 13:35 潜心学习慧 阅读(270) 评论(0) 推荐(1) 编辑

线性判别分析(LDA), 主成分分析(PCA)

摘要: http://www.zhizhihu.com/html/y2011/2544.html本文是LeftNotEasy写的,个人感觉不错。前言:谈到LDA,就不得不谈谈PCA,PCA是一个和LDA非常相关的算法,从推导、求解、到算法最终的结果,都有着相当的相似。本次的内容主要是以推导数学公式为主,都是从算法的物理意义出发,然后一步一步最终推导到最终的式子,LDA和PCA最终的表现都是解一个矩阵特征值的问 题,但是理解了如何推导,才能更深刻的理解其中的含义。本次内容要求读者有一些基本的线性代数基础,比如说特征值、特征向量的概念,空间投影,点乘等的一 些基本知识等。除此之外的其他公式、我都尽量讲得更 阅读全文

posted @ 2012-10-29 13:33 潜心学习慧 阅读(551) 评论(0) 推荐(0) 编辑