有多少人工,就有多少智能
摘要: https://scikit-learn.org/stable/modules/generated/sklearn.cluster.DBSCAN.html?highlight=dbsc#sklearn.cluster.DBSCAN 阅读全文
posted @ 2021-01-19 21:46 lvdongjie-avatarx 阅读(83) 评论(0) 推荐(0) 编辑
摘要: 一、前言 DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。 该算法将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密 阅读全文
posted @ 2021-01-19 20:45 lvdongjie-avatarx 阅读(278) 评论(0) 推荐(0) 编辑
摘要: BIRCH(Balanced Iterative Reducing and Clustering using Hierarchies)天生就是为处理超大规模(至少要让你的内存容不下)的数据集而设计的,它可以在任何给定的内存下运行。关于BIRCH的更多特点先不介绍,我先讲一下算法的完整实现细节,对算法 阅读全文
posted @ 2021-01-19 20:02 lvdongjie-avatarx 阅读(830) 评论(0) 推荐(0) 编辑
摘要: https://scikit-learn.org/stable/modules/generated/sklearn.cluster.AgglomerativeClustering.html?highlight=agg#sklearn.cluster.AgglomerativeClustering h 阅读全文
posted @ 2021-01-19 19:47 lvdongjie-avatarx 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 不管是GMM,还是k-means,都面临一个问题,就是k的个数如何选取?比如在bag-of-words模型中,用k-means训练码书,那么应该选取多少个码字呢?为了不在这个参数的选取上花费太多时间,可以考虑层次聚类。 假设有N个待聚类的样本,对于层次聚类来说,基本步骤就是: 1、(初始化)把每个样 阅读全文
posted @ 2021-01-19 19:30 lvdongjie-avatarx 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-01-19 19:03 lvdongjie-avatarx 阅读(126) 评论(0) 推荐(0) 编辑
摘要: https://scikit-learn.org/stable/modules/generated/sklearn.cluster.KMeans.html?highlight=kmeans#sklearn.cluster.KMeans https://scikit-learn.org/stable/ 阅读全文
posted @ 2021-01-19 08:19 lvdongjie-avatarx 阅读(154) 评论(0) 推荐(0) 编辑
摘要: K-means算法简述 K-means算法,也称为K-平均或者K-均值,一般作为掌握聚类算法的第一个算法。 这里的K为常数,需事先设定,通俗地说该算法是将没有标注的 M 个样本通过迭代的方式聚集成K个簇。 在对样本进行聚集的过程往往是以样本之间的距离作为指标来划分。 简单Demo说明如上图以 K 为 阅读全文
posted @ 2021-01-19 08:14 lvdongjie-avatarx 阅读(911) 评论(0) 推荐(0) 编辑
摘要: 由于 K-means 算法的分类结果会受到初始点的选取而有所区别,因此有提出这种算法的改进: K-means++ 。 算法步骤 其实这个算法也只是对初始点的选择有改进而已,其他步骤都一样。初始质心选取的基本思路就是,初始的聚类中心之间的相互距离要尽可能的远。 算法描述如下: 步骤一:随机选取一个样本 阅读全文
posted @ 2021-01-19 08:10 lvdongjie-avatarx 阅读(676) 评论(0) 推荐(0) 编辑
摘要: 1.K-Means(K均值)聚类 算法步骤:(1) 首先我们选择一些类/组,并随机初始化它们各自的中心点。中心点是与每个数据点向量长度相同的位置。这需要我们提前预知类的数量(即中心点的数量)。(2) 计算每个数据点到中心点的距离,数据点距离哪个中心点最近就划分到哪一类中。(3) 计算每一类中中心点作 阅读全文
posted @ 2021-01-19 07:33 lvdongjie-avatarx 阅读(519) 评论(0) 推荐(0) 编辑