博客园  :: 首页  :: 联系 :: 管理
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 36 下一页

2017年8月27日

摘要: PCA的降维原则是最小化投影损失,或者是最大化保留投影后数据的方差。LDA降维需要知道降维前数据分别属于哪一类,而且还要知道数据完整的高维信息。拉普拉斯特征映射 (Laplacian Eigenmaps,LE)看问题的角度和LLE十分相似。它们都用图的角度去构建数据之间的关系。图中的每个顶点代表一个 阅读全文

posted @ 2017-08-27 18:10 天戈朱 阅读(1635) 评论(0) 推荐(0) 编辑

2017年8月21日

摘要: PCA (Principal Component Analysis) 主成份分析 也称为卡尔胡宁-勒夫变换(Karhunen-Loeve Transform),是一种用于探索高维数据结构的技术。PCA通常用于高维数据集的探索与可视化。还可以用于数据压缩,数据预处理等。PCA可以把可能具有相关性的高维 阅读全文

posted @ 2017-08-21 23:46 天戈朱 阅读(1267) 评论(0) 推荐(0) 编辑

摘要: 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达, y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。使用降 阅读全文

posted @ 2017-08-21 23:45 天戈朱 阅读(1304) 评论(0) 推荐(0) 编辑

2017年8月18日

摘要: 测试验证环境 数据: 7w+ 条,数据结构如下图: 机器配置: R version: R包性能对比 全局函数及参数设置 ## 全局设置 remove(list=ls()) space_path <- c("E:\\RScore\\kmeans\\") setwd(space_path) Sys.se 阅读全文

posted @ 2017-08-18 23:04 天戈朱 阅读(747) 评论(0) 推荐(0) 编辑

摘要: 1965年美国加州大学柏克莱分校的扎德教授第一次提出了‘集合’的概念。经过十多年的发展,模糊集合理论渐渐被应用到各个实际应用方面。为克服非此即彼的分类缺点,出现了以模糊集合论为数学基础的聚类分析。用模糊数学的方法进行聚类分析,就是模糊聚类分析。FCM(Fuzzy C-Means)算法是一种以隶属度来 阅读全文

posted @ 2017-08-18 23:03 天戈朱 阅读(2456) 评论(0) 推荐(0) 编辑

2017年8月17日

摘要: 模型聚类 mclust::Mclust RWeka::Cobweb mclust::Mclust EM算法也称为期望最大化算法,在是使用该算法聚类时,将数据集看作一个有隐形变量的概率模型,并实现模型最优化,即获取与数据本身性质最契合的聚类方式为目的,通过‘反复估计’模型参数找出最优解,同时给出相应的 阅读全文

posted @ 2017-08-17 23:38 天戈朱 阅读(3420) 评论(0) 推荐(1) 编辑

摘要: 网格聚类算法 optpart::clique optpart::clique CLIQUE(Clustering In QUEst)是一种简单的基于网格的聚类方法,用于发现子空间中基于密度的簇。CLIQUE把每个维划分成不重叠的区间,从而把数据对象的整个嵌入空间划分成单元。它使用一个密度阈值识别稠密 阅读全文

posted @ 2017-08-17 23:37 天戈朱 阅读(1355) 评论(1) 推荐(1) 编辑

2017年8月12日

摘要: 密度聚类 fpc::dbscan fpc::dbscan DBSCAN核心思想:如果一个点,在距它Eps的范围内有不少于MinPts个点,则该点就是核心点。核心和它Eps范围内的邻居形成一个簇。在一个簇内如果出现多个点都是核心点,则以这些核心点为中心的簇要合并。其中要注意参数eps的设置,如果eps 阅读全文

posted @ 2017-08-12 03:04 天戈朱 阅读(883) 评论(0) 推荐(0) 编辑

2017年8月11日

摘要: 层次聚类 stats::hclust stats::dist R使用dist()函数来计算距离,Usage: dist(x, method = "euclidean", diag = FALSE, upper = FALSE, p = 2) x: 是样本矩阵或者数据框 method: 表示计算哪种距 阅读全文

posted @ 2017-08-11 01:12 天戈朱 阅读(3361) 评论(0) 推荐(0) 编辑

2017年8月9日

摘要: K-medodis与K-means比较相似,但是K-medoids和K-means是有区别的,不一样的地方在于中心点的选取,在K-means中,我们将中心点取为当前cluster中所有数据点的平均值,在 K-medoids算法中,我们将从当前cluster 中选取这样一个点——它到其他所有(当前cl 阅读全文

posted @ 2017-08-09 23:24 天戈朱 阅读(2122) 评论(0) 推荐(0) 编辑

上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 36 下一页