2017年5月8日

Python格式化输出

摘要: 转:http://www.cnblogs.com/plwang1990/p/3757549.html 1. 打印字符串 print ("His name is %s"%("Aviad")) 效果: 2.打印整数 print ("He is %d years old"%(25)) 效果: 3.打印浮点 阅读全文

posted @ 2017-05-08 11:38 易然~ 阅读(175) 评论(0) 推荐(0) 编辑

2017年5月7日

机器学习-KMeans聚类 K值以及初始类簇中心点的选取

摘要: 【转】http://www.cnblogs.com/kemaswill/archive/2013/01/26/2877434.html 本文主要基于Anand Rajaraman和Jeffrey David Ullman合著,王斌翻译的《大数据-互联网大规模数据挖掘与分布式处理》一书。 KMeans 阅读全文

posted @ 2017-05-07 23:43 易然~ 阅读(7696) 评论(0) 推荐(0) 编辑

[聚类算法]K-means优缺点及其改进

摘要: [聚类算法]K-means优缺点及其改进 【转】:http://blog.csdn.net/u010536377/article/details/50884416 K-means聚类小述 大家接触的第一个聚类方法,十有八九都是K-means聚类啦。该算法十分容易理解,也很容易实现。其实几乎所有的机器 阅读全文

posted @ 2017-05-07 23:38 易然~ 阅读(2829) 评论(0) 推荐(0) 编辑

【知乎转载】机器学习、数据挖掘 如何进阶成为大神?

摘要: 著作权归作者所有。 商业转载请联系作者获得授权,非商业转载请注明出处。 作者:淩清风 链接:https://www.zhihu.com/question/37256015/answer/85198013 来源:知乎 我不是大神。 背景:某二本院校大四学生; 说一说自己的学习经历吧。不知道能不能对题主 阅读全文

posted @ 2017-05-07 22:47 易然~ 阅读(3962) 评论(0) 推荐(0) 编辑

数据挖掘学习清单

摘要: 数据挖掘学习清单 基础篇 矩阵背后的现实意义 概率分布 无约束最优化方法 拉格朗日乘子法和KKT条件 推荐 相关性检验 协同过滤推荐算法 分类 朴素贝叶斯 LR SVM 聚类 KMeans DBScan CHAMELEON GMM 决策树 ID3 C4.5 Adaboost GBDT 关联规则挖掘 阅读全文

posted @ 2017-05-07 22:25 易然~ 阅读(171) 评论(0) 推荐(0) 编辑

2017年5月5日

scikit-learn决策树算法类库使用小结

摘要: 转:http://www.cnblogs.com/pinard/p/6056319.html scikit-learn决策树算法类库使用小结 之前对决策树的算法原理做了总结,包括决策树算法原理(上)和决策树算法原理(下)。今天就从实践的角度来介绍决策树算法,主要是讲解使用scikit-learn来跑 阅读全文

posted @ 2017-05-05 15:09 易然~ 阅读(494) 评论(0) 推荐(0) 编辑

2017年5月4日

KMeans

摘要: 一、聚类算法:from sklearn.cluster import KMeans (一)输入参数: (1)n_clusters:要分成的簇数也是要生成的质心数 类型:整数型(int) 默认值:8 n_clusters : int, optional, default: 8 The number o 阅读全文

posted @ 2017-05-04 11:25 易然~ 阅读(2785) 评论(0) 推荐(0) 编辑

2017年4月28日

机器学习评价指标大汇总

摘要: 出处:http://www.zhaokv.com/2016/03/ml-metric.html 更详细的官方文档:http://scikit-learn.org/stable/modules/model_evaluation.html#the-scoring-parameter-defining-m 阅读全文

posted @ 2017-04-28 14:22 易然~ 阅读(729) 评论(0) 推荐(0) 编辑

2017年4月26日

preprocessing

摘要: 二、标准化(Standardization),或者去除均值和方差进行缩放 公式为:(X-X_mean)/X_std 计算时对每个属性/每列分别进行. 将数据按其属性(按列进行)减去其均值,然后除以其方差。最后得到的结果是,对每个属性/每列来说所有数据都聚集在0附近,方差值为1。 首先说明下sklea 阅读全文

posted @ 2017-04-26 19:33 易然~ 阅读(743) 评论(0) 推荐(0) 编辑

hist

摘要: 转载:python中plt.hist参数详解 x : (n,) array or sequence of (n,) arrays 这个参数是指定每个bin(箱子)分布的数据,对应x轴 bins : integer or array_like, optional 这个参数指定bin(箱子)的个数,也就 阅读全文

posted @ 2017-04-26 14:45 易然~ 阅读(568) 评论(0) 推荐(0) 编辑

导航