随笔分类 - scikit-learn
摘要:参考资料: sklearn调包侠之KNN算法 深入浅出KNN算法(一) KNN算法原理 深入浅出KNN算法(二) sklearn KNN实践 KNN的原理就是当预测一个新的值x的时候,根据它距离最近的K个点是什么类别来判断x属于哪个类别。 KNN是有监督学习中的分类算法,也就是已知训练样本的labe
阅读全文
摘要:数据降维与可视化——t-SNE sklearn的TSNE函数中,有个perplexity参数,这个参数我试过从10到600,发现参数越大,数据会被聚集的越紧,甚至会把几簇聚为一簇,同时x和y的坐标范围也会越小。所以在可视化的时候,要多调试这个参数,找到合适的值。
阅读全文
摘要:介绍 图片摘自stackoverflow: what-is-the-difference-between-fit-fit-transform-and-transform 例一 from sklearn.preprocessing import StandardScaler ss = Standard
阅读全文
摘要:sklearn中的高斯混合模型GMM sklearn GMM模型介绍
阅读全文
摘要:sklearn中PCA降维的使用方法
阅读全文
摘要:一般在有监督训练中,我们很自然地会用如下模式去预测测试集的分类:(以svm为例) svm.fit(x_train, y_train) y_pred=svm.predict(x_test) 那么无监督训练中是否也可以在一个数据集上训练,然后用训练好的模型直接调用predict()函数在另一个数据集上进
阅读全文
摘要:1. 通用模板 参考:使用sklearn构建模型的通用模板 该文章详细介绍了数据集的加载、训练集测试集的划分、基本算法模型模板、有交叉验证的算法模型模板、可调参的算法模型模板等,有不错的参考价值。例如,下图是该文章的基本算法模型模板: 2. 预估对象 预估对象是指上图中的"3、模型名"。 sklea
阅读全文
摘要:scikit-learn中的KMeans聚类实现( + MiniBatchKMeans)
阅读全文
摘要:数据归一化 minmax_scale()函数解析 例子: import numpy as np from sklearn.preprocessing import MinMaxScaler a = np.arange(20).reshape(4, 5) ms = MinMaxScaler(featu
阅读全文
摘要:scikit-learn数据预处理fit_transform()与transform()的区别
阅读全文
摘要:1. 算法步骤 随机选取k个样本点充当k个簇的中心点; 计算所有样本点与各个簇中心之间的距离,然后把样本点划入最近的簇中; 根据簇中已有的样本点,重新计算簇中心; 重复步骤2和3,直到簇中心不再改变或改变很小。 2. 手动Python实现 import numpy as np import matp
阅读全文