【Lidar】Open3D点云K-Means聚类算法:基于距离的点云聚类(单木分割)附Python代码
1 K-Means算法介绍
K-means聚类算法是一种无监督学习算法,主要用于数据聚类。该算法的主要目标是找到一个数据点的划分,使得每个数据点与其所在簇的质心(即该簇所有数据点的均值)之间的平方距离之和最小。
在K-means聚类算法中,首先需要预定义簇的数量K,然后随机选择K个对象作为初始的聚类中心。接着,算法会遍历数据集中的每个对象,根据对象与各个聚类中心的距离,将每个对象分配给距离它最近的聚类中心。完成一轮分配后,算法会重新计算每个簇的聚类中心,新的聚类中心是该簇所有对象的均值。这个过程会不断重复,直到满足某个终止条件,如没有(或最小数目)对象被重新分配给不同的簇,没有(或最小数目)簇的中心再发生变化,或者误差平方和局部最小。
2 Python代码
我这里使用的是Python机器学习库里自带的K-Means算法,不用自己手动复现。参数如下:
1)n_clusters (整数): 这是你希望算法找到的簇的数量。例如,如果你希望算法将数据分为三类,那么你应该设置 n_clusters=3
。
2)random_state (整数或None): 这个参数是用来设置随机数生成器的种子。这样,每次运行算法时,你都会得到相同的结果。如果你想让结果每次都不一样,你可以设置 random_state=None
。
3)n_init (整数): 这个参数是用来指定算法运行的不同初始化次数的。算法会多次运行,每次都使用不同的随机初始化,然后选择最好的结果(即具有最小内部集群距离的结果)。这有助于避免局部最优解。
4)init (字符串或数组): 这个参数决定了初始化聚类中心的方法。常见的选项包括 "k-means++" 和 "random"。如果你使用 "k-means++",那么算法会首先随机选择一个点作为第一个聚类中心,然后选择具有最大与已选择聚类中心距离的点作为下一个聚类中心。这种方法有助于提高算法的稳定性。
3 效果展示
4 总结
总的来说,K-Means算法还是不错的,单木分割方面比DBSCAN聚类表现得好。但是对于完善地林业单木分割还是有些困难,可能还需要加入其他算法来修正它的结果。其次在K-Means算法的参数方面需要好好臻选。