聚类
聚类算法
K-Means
-
算法思想:以空间中k个点为中心进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果
-
跟分类相比,没有给定已知标签
-
用python代码自己实现的Kmeans: https://www.bilibili.com/video/BV1Rt411q7WJ?p=62
- 注意:sklearn自带的KMeans效果要比自己实现的Kmeans效果好
-
用sklearn实现
"""
# @Time : 2020/8/13
# @Author : Jimou Chen
"""
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans # 导入KMeans
# 载入数据
data = np.genfromtxt('kmeans.txt', delimiter=' ')
# 设置k值
k = 4
# 建模
model = KMeans(n_clusters=k)
model.fit(data)
# 各分类的中心点坐标
centers = model.cluster_centers_
print(centers)
# 预测结果
prediction = model.predict(data)
print(prediction)
# 画图
colors = ['or', 'ob', 'og', 'oy']
for i, d in enumerate(data):
plt.plot(d[0], d[1], colors[prediction[i]])
# 画出各个分类的中心点
mark = ['*r', '*b', '*g', '*y']
for i, center in enumerate(centers):
plt.plot(center[0], center[1], mark[i], markersize=20)
plt.show()
# 获取数据值所在的范围
x_min, x_max = data[:, 0].min() - 1, data[:, 0].max() + 1
y_min, y_max = data[:, 1].min() - 1, data[:, 1].max() + 1
# 生成网格矩阵
xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02),
np.arange(y_min, y_max, 0.02))
z = model.predict(np.c_[xx.ravel(), yy.ravel()]) # ravel与flatten类似,多维数据转一维。flatten不会改变原始数据,ravel会改变原始数据
z = z.reshape(xx.shape)
# 等高线图
cs = plt.contourf(xx, yy, z)
# 显示结果
# 画出各个数据点,用不同颜色表示分类
mark = ['or', 'ob', 'og', 'oy']
for i, d in enumerate(data):
plt.plot(d[0], d[1], mark[prediction[i]])
# 画出各个分类的中心点
mark = ['*r', '*b', '*g', '*y']
for i, center in enumerate(centers):
plt.plot(center[0], center[1], mark[i], markersize=20)
plt.show()
[[ 2.6265299 3.10868015]
[-3.38237045 -2.9473363 ]
[ 2.80293085 -2.7315146 ]
[-2.46154315 2.78737555]]
[0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0
3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3 2 1 0 3
2 1 0 3 2 1]
Process finished with exit code 0
model.fit(data) 只传一个
MiniBatchKMeans模型
- Mini Batch K-Means算法是K-Means算法的变种
- 与K均值算法相比,数据的更新是在每一个小的样本集上。Mini Batch K-Means比K-Means有更快的 收敛速度,但同时也降低了聚类的效果,但是在实际项目中却表现得不明显
"""
# @Time : 2020/8/13
# @Author : Jimou Chen
"""
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import MiniBatchKMeans
'''适用于数据多的情况,但是一般情况还是用KMeans'''
data = np.genfromtxt('kmeans.txt', delimiter=' ')
k = 4
model = MiniBatchKMeans(n_clusters=k)
model.fit(data)
# 分类中心坐标
centers = model.cluster_centers_
print(centers)
# 预测结果
pred_res = model.predict(data)
print(pred_res)
# 画图
colors = ['or', 'ob', 'og', 'oy']
for i, d in enumerate(data):
plt.plot(d[0], d[1], colors[pred_res[i]])
# 画出各个分类的中心点
mark = ['*r', '*b', '*g', '*y']
for i, center in enumerate(centers):
plt.plot(center[0], center[1], mark[i], markersize=20)
plt.show()
-
KMeans的4个问题: https://www.bilibili.com/video/BV1Rt411q7WJ?p=65
-
对k个初始质心的选择比较敏感,容易陷入局部最小值
-
k值的选择是用户指定的,不同的k得到的结果会有挺大的不同
-
存在局限性,如下面这种非球状的数据分布就搞不定了
-
数据比较大的时候,收敛会比较慢
-
DBSCAN
- 本算法将具有足够高密度的区域划分为簇,并可以发现任何形状的聚类
-
缺点:
- • 当数据量增大时,要求较大的内存支持I/O消耗也很大。
- • 当空间聚类的密度不均匀、聚类间距差相差很大时,聚类质量较差。
-
DBSCAN和K-MEANS比较:
- • DBSCAN不需要输入聚类个数。
- • 聚类簇的形状没有要求。
- • 可以在需要时输入过滤噪声的参数。
-
关键参数
- esp
- min_point
即通过调整eps=, min_samples=来找到一个最好的效果
"""
# @Time : 2020/8/21
# @Author : Jimou Chen
"""
from sklearn.cluster import DBSCAN
import numpy as np
import matplotlib.pyplot as plt
data = np.genfromtxt('kmeans.txt', delimiter=' ')
# 建模
# esp距离阈值,min_samples在esp领域里面的样本数
model = DBSCAN(eps=1.5, min_samples=4)
model.fit(data)
# 预测,fit_predict是先拟合后预测,DBSCAN没有predict方法
pred = model.fit_predict(data)
print(pred) # 预测值为-1的是噪点
# 画出各个数据点
mark = ['or', 'ob', 'og', 'oy', 'ok', 'om']
for i, d in enumerate(data):
plt.plot(d[0], d[1], mark[pred[i]])
plt.show()
[ 0 1 2 3 0 1 2 3 0 1 2 3 0 1 -1 2 0 1 2 3 0 1 2 3
0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3
0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3 0 1 2 3
0 1 2 3 0 1 2 3]
- 预测值是-1 的代表噪点