机器学习——聚类分析和主成分分析
机器学习——聚类分析和主成分分析
在机器学习中,非监督性学习主要用来分类。其中重要的两种就是聚类分析和主成分分析。这两类算法在数据压缩和数据可视化方面有着广泛的应用。
所谓无监督学习是指训练集里面只有点\(\{x^{(1)},x^{(2)},\ldots,x^{(m)}\}\),没有对应的性质标签\(y\)。所以非监督性学习的目的不再是预测,而是分类。
一、聚类分析
经典的聚类分析算法是K-mean算法。K是类的数目,mean是均值。
1. K-mean算法
- 1.给定训练集\(\{x^{(1)},x^{(2)},\ldots,x^{(m)}\},x^{(i)} \in R^n\),随机选取\(k\)个聚类的质心点,记为\(u_1,u_2,\ldots,u_k \in R^n\)
- 2.重复下面过程知道算法收敛{
对于每一个样例\(i\),计算与它距离最近的质心点,并记下相应中心的编号。
\[c^{(i)}:=arg \min \limits_{j} ||x^{(i)}-u_j||^2
\]
对于每一类$j$,重新计算对应的质心
\[u_j:=\frac{\sum \limits_{i=1}^{m}1 \{c^{(i)}=j \}x^{(i)}}{\sum \limits_{i=1}^{m}1 \{c^{(i)}=j\}}
\]
}
注意:在处理前,先将数据作规范化处理
2. 如何选取起点
与选取随机点相比,随机选取数据点作为质心更加合理。另外,因为K-means算法可能收敛到局部最优点,所以一般采取多次外循环,求得一系列的结果,然后选取结果中\(J(c,u)\)最小的一个。\(J(c,u)\)的定义如下:
\[J(c,u)= {1 \over m}\sum \limits _{i=1}^{m}||x^{(i)}-u_{c^{(i)}}||^2
\]
3. 如何决定分类个数
关于分类个数的选取,一般是根据需求人工选择的。选择时一般考虑分类的目的是什么,然后根据更好地实现目的进行选择。
其次,有一种可以参考的分类方法,叫做“肘部法则”。如下图所示,一般选取斜率从大到小急剧变化那一点。但有时,也会有斜率一直缓慢变化的情况。
4. 应用
聚类分析可以用于数据压缩。具体思路就是将图片内所有的像素点分成K类,每一类的颜色设置成一个值。下面是例子,将原来的颜色压缩成了16个,仍然可以辨认出图像。
二、主成分分析(PCA)
1.算法步骤
- 1.数据规范化。将数据规范为均值为0,方差为1的数据。
- 2.求解协方差矩阵。
\[\Sigma {\rm{ = }}{1 \over {\rm{m}}}{X^T}X
\]
- 3.对下方差矩阵进行SVD分解。
\[[U, S, V] = svd(\Sigma)
\]
- 4.数据投影。
\[Z=XU(:,1:K)
\]
- 5.数据恢复
\[X_{rec}=ZU(:,1:K)^T
\]
2.算法原理
PCA的算法原理是基于SVD分解的一种算法。根据SVD分解中奇异值是从大到小排列,只选取前K项最大值,对原信号进行相应的变换。将相当于N维空间到K维空间的投影。
其中,K值的选取需要满足\(\frac{\sum \limits_{i=1}^{K}S_{ii}}{\sum \limits_{i=1}^{N}S_{ii}} \ge 99 \%\)。
3.应用举例
- 数据压缩。数据压缩可用来存储数据、加快算法速度。
- 数据可视化。一般设法将数据降到2维或者3维,以便可视化。
下面例子是一个利用PCA算法来提取脸部特征后结果图。这些脸部特征可以用来进行面部识别。
欢迎阅读我的文章,如发现问题,请务必留言指正。
本博客内容除注明转载的内容外,均为作者原创,转载请注明原地址!
博客地址:http://www.cnblogs.com/connorzx/
希望在未来的日子里我和你共同进步。