机器学习公开课笔记(8):k-means聚类和PCA降维

K-Means算法

非监督式学习对一组无标签的数据试图发现其内在的结构,主要用途包括:

  • 市场划分(Market Segmentation)
  • 社交网络分析(Social Network Analysis)
  • 管理计算机集群(Organize Computer Clusters)
  • 天文学数据分析(Astronomical Data Analysis)

K-Means算法属于非监督式学习的一种,算法的输入是:训练数据集{x(1),x(2),,x(m)}(其中x(i)Rn)和聚类数量K(将数据划分为K类);算法输出是K个聚类中心μ1,μ2,,μK和每个数据点x(i)所在的分类。

K-Means算法步骤

  1. 随机初始化K个聚类中心(cluster centroid) μ1,μ2,,μK
  2. Cluster Assignment: 对于每个数据点x(i),寻找离它最近的聚类中心,将其归入该类;即c(i)=mink||x(i)μk||2,其中c(i)表示x(i)所在的类
  3. Move Centroid: 更新聚类中心uk的值为所有属于类k的数据点的平均值
  4. 重复2、3步直到收敛或者达到最大迭代次数

图1 K-Means算法示例

K-Means算法的优化目标

μc(i)表示第i个数据点x(i)所在类的中心,则K-Means优化的代价函数为J(c(1),,c(m),μ1,,μK)=1mi=1m||x(i)μc(i)||2希望找到最优参数使得该函数最小化,即minc(1),,c(m)μ1,,μKJ(c(1),,c(m),μ1,,μK)

需要注意的问题

  • 随机初始化:常用的初始化方法是,从训练数据点中随机选择K(K<m)个数据点,作为初始的聚类中心μ1,μ2,,μK
  • 局部最优:算法聚类的性能与初始聚类中心的选择有关,为避免陷入局部最优(如图2所示),应该运行多次(50次)取使得J最小的结果
  • K值选择:Elbow方法,绘制JK的变化曲线,选择下降速度突然变慢的转折点作为K值;对于转折不明显的曲线,可根据K-Means算法后续的目标进行选择。

   
图2 K-Means算法的全局最优解和局部最优解   
                  

图3  用Elbow方法选择K值的情况(左)和Elbow法不适用的情况(右)

 PCA降维算法

动机

数据压缩:将高维数据(n维)压缩为低维数据(k维)

数据可视化:将数据压缩到2维/3维方便可视化

PCA问题形式化

如果需要将二维数据点,压缩为一维数据点,我们需要找到一个方向,使得数据点到这个方向上投射时的误差最小(即点到该直线的距离最小);更一般地,如果需要将n维的数据点压缩到k维,我们需要找到k个新的方向u(1),u(2),,u(k)使得数据点投射到每个方向u(i)时的误差最小。


图4 PCA实例,将2维数据点压缩为1维数据点,找到新的方向u1,使得投射误差(图中的垂线距离如xix~i)最小

注意:PCA和线性回归的区别,PCA是保证投射的误差(图5右的黄线)最小,而线性回归是保证沿y方向的误差(图5左的黄线)最小.

图5 线性回归和PCA优化目标的区别

PCA算法步骤

1. 数据预处理:mean normalization:μj=1mi=1mxj(i),xj(i)=xjμj;feature scaling:(可选,不同特征范围差距过大时需要) , xj(i)=x(i)μjσj 

2. 计算协方差矩阵(Convariance Matrix) Σ=1mi=1mx(i)(x(i))TorΣ=1mXTX

3. 计算协方差矩阵Σ的特征向量  [U, S, V] = svd(Sigma) 

4. 选择U矩阵的前k个列向量作为k个主元方向,形成矩阵Ureduce

5. 对于每个原始数据点x(xRn),其降维后的数据点z(zRk)为 z=UreduceTx

应用PCA

重构数据:对于降维后k维数据点z,将其恢复n维后的近似点为 xapporx(x)=Ureducez

选择k值

  • 平均投射误差(Average square projection error):1mi=1m||x(i)xapprox(i)||2
  • total variation: 1mi=1m||x(i)||2
  • 选择最小的k值使得 1mi=1m||x(i)xapprox(i)||21mi=1m||x(i)||20.01(0.05),也可以使用SVD分解后的S矩阵进行选择 1i=1kSiii=1nSii0.01(0.05)

应用PCA的建议

  • 用于加速监督式学习:(1) 对于带标签的数据,去掉标签后进行PCA数据降维,(2)使用降维后的数据进行模型训练,(3) 对于新的数据点,先PCA降维得到降维后数据,带入模型获得预测值。:应仅用训练集数据进行PCA降维获取映射x(i)z(i),然后将该映射(PCA选择的主元矩阵Ureduce)应用到验证集和测试集
  • 不要用PCA阻止过拟合,用regularization。
  • 在使用PCA之前,先用原始数据进行模型训练,如果不行,再考虑使用PCA;而不要上来直接使用PCA。

参考文献

[1] Andrew Ng Coursera 公开课第八周

[2] 漫谈Clustering:k-means. http://blog.pluskid.org/?p=17

[3] k-means clustering in a GIF. http://www.statsblogs.com/2014/02/18/k-means-clustering-in-a-gif/

[4] Wikipedia: Principal component analysis. https://en.wikipedia.org/wiki/Principal_component_analysis

[5] Explained Visually: Principal component analysis http://setosa.io/ev/principal-component-analysis/

posted @   python27  阅读(8564)  评论(1编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
点击右上角即可分享
微信分享提示