LR&PCA&KPCA
《Python机器学习》Sebastian Raschka著,机械工业出版社
定义
LR:给定一个自变量 和因变量 ,拟合一条直线使得样例数据点与拟合直线之间的距离最短,最常用的是采用平均平方距离来计算。(P3)
PCA:在高维数据中找到最大方差的方向,并将数据映射到一个维度不大于原始数据的新的子空间上。(P77)
KPCA:通过非线性映射将数据转换到一个高维空间,然后在此高维空间中利用标准PCA将其映射到另外一个低维空间。(P92)
区别与联系
联系:都是降维
区别:
1、LR在纵轴方向上差的平方之和最小,PCA为垂直于向量方向上的差的平方之和最小。
2、KPCA非线性升维,之后等价于PCA