Kmeans

Kmeans

基本原理

K-Mmeans算法使用贪心策略求得一个近似解,具体步骤如下:

  • 在样本中随机选取k个样本点充当各个簇的中心点

\[u_{1},u_{2}...u_{k} \]

  • 计算所有样本点与各个簇中心之间的距离

\[dist(x^{(i)},u_{i}) \]

​ ,然后把样本点划入最近的簇中

\[x^{(i)}\in u^{_{nearest}} \]

  • 根据簇中已有的样本点,重新计算簇中心

\[u_{i}: = \frac{1}{\left | c_{i}\right |} \sum_{x\in C_{i}}x \]

  • 重复2、3

K-means算法得到的聚类结果严重依赖与初始簇中心的选择,如果初始簇中心选择不好,就会陷入局部最优解,避免这种情况的简单方法是重复多次运行K-means算法,然后取一个平均结果。

Kmeans++

K-means算法初始中心点的选取,改进后的选取流程如下:

  • 在数据集中随机选取一个样本点作为第一个簇中心C1

  • 计算剩余样本点与已有聚类中心之间的最短距离(即与最近一个聚类中心的距离)

    \[D(x^{(i)})=min[dist(x^{(i)},C_{1}),dist(x^{(i)},C_{2}),...,dist(x^{(i)},C_{n})] \]

    计算每个样本被选为下一个聚类中心的概率:

    \[\frac{D(x^{(i)})^{2}}{\sum _{j \in X } D(x^{(j)})} \]

  • 重复步骤二,知道选出 k 个聚类中心。

效率

K-means++ 能显著的改善分类结果的最终误差。

尽管计算初始点时花费了额外的时间,但是在迭代过程中,k-mean 本身能快速收敛,因此算法实际上降低了计算时间。

网上有人使用真实和合成的数据集测试了他们的方法,速度通常提高了 2 倍,对于某些数据集,误差提高了近 1000 倍。

posted @ 2020-05-27 20:14  heimazaifei  阅读(190)  评论(0编辑  收藏  举报