机器学习第七堂课20210415

无监督降维

无监督有三类:降维、聚类、概率建模。

本节课主要讲降维和聚类。PCA(主成分分析)

降维的主要应用:一、数据可视化(Scatter plot)直接去掉某个维度会丢失大量数据信息。

降维具有如下一些优点:

  • 1) 使得数据集更易使用。
  • 2) 降低算法的计算开销。
  • 3) 去除噪声。
  • 4) 使得结果容易理解。

 数据可视化(Scatter plot matrix散点图矩阵)适用于维度不是很大的数据。

背景知识

协方差矩阵:

数据集两个维度之间的协方差

降维的目的:图像处理、基因学。

高维特征的问题:存在大量冗余的特征,降低了机器学习的性能;数据分布可视化问题;维度灾难。

 维度灾难:数据分布不符合直觉;不利于统计分析;影响机器学习性能。

内在维度(intrinsic dimensionality)

内在维度:表征数据变化的自由变量的个数。

a)1维线性子空间(直线)

b)1维非线性子空间(圆)

c)1维非线性子空间--流形(抛物线)

降维的算法有很多,比如奇异值分解(SDV)、主成分分析(PCA)、因子分析(FA)、独立成分分析(ICA)。

 PCA是线性降维的方法。

MDA是非线性降维的方法。

LDA算法是监督的降维。

无监督的降维:数据没有类别标签。

PCA的过程:

 

 

 线性降维:将d维的原始数据X = (x1,x2,x3,,,,,,xm)属于Rd*m

线性投影到d' 维子空间Z = W的转置X

投影矩阵:W属于R(d*d')降维后数据:Z属于R(d'*m)

通常 d' <<d

 

 最佳的子空间(主成分):

一、最小重构误差:数据样本到投影点的距离最近。

 

二、方差最大化。数据样本的投影点之间尽可能分散。

tr:矩阵的迹。方差最大,则tr需要max。

最小重构误差和方差最大化的目标函数是等价的。

PCA的优化算法:最小化式子,带有等式约束。

对 等式约束 的目标函数使用拉格朗日乘子法 可以得到:

 协方差矩阵的意义:

1、 特征值就是方差,需要最大化

 2、特征向量需要最小化,是最小重构误差。

PCA的应用:

1、数值计算

2、特征脸:经过PCA得到脸部图像特征值,当主成分个数m>=100,重构图像很接近原始图像。

 

 

参考链接:https://blog.csdn.net/program_developer/article/details/80632779

 https://blog.csdn.net/qq_38262266/article/details/100592330

posted @ 2021-04-15 10:08  白雪儿  Views(198)  Comments(0Edit  收藏  举报