随笔分类 -  Scikit-learn

摘要:scikit-learn 0.17之后就不再支持隐马尔可夫模型,而是将其独立拎出来作为单独的包。其中: hmmlearn:无监督隐马尔可夫模型 seqlearn :监督隐马尔可夫模型 一些通用的参数: verbose:一个正数。用于开启/关闭迭代中间输出日志功能。 数值越大,则日志越详细。 数值为0 阅读全文
posted @ 2019-12-27 19:54 nxf_rabbit75 阅读(1660) 评论(0) 推荐(0) 编辑
摘要:一、标签传播算法 scikit-learn 有两个类实现了标签传播算法: LabelPropagation:迭代过程: 执行标签传播:F<t+1>=PF<t+1> 。 重置F 中的标签样本标记:Fl<t+1>=Yl,其中Fl 表示F 的前l行。 Lab 阅读全文
posted @ 2019-12-27 19:52 nxf_rabbit75 阅读(291) 评论(0) 推荐(0) 编辑
摘要:(一)通用方法、参数 1.通用方法 get_params([deep]):返回模型的参数。 deep: 如果为True,则可以返回模型参数的子对象。 set_params(**params):设置模型的参数。 params:待设置的关键字参数。 fit(X[, y, sample_weight])  阅读全文
posted @ 2019-12-27 19:46 nxf_rabbit75 阅读(363) 评论(0) 推荐(0) 编辑
摘要:一、数据集切分 二、性能度量 三、验证曲线 && 学习曲线 四、超参数优化 阅读全文
posted @ 2019-12-27 19:43 nxf_rabbit75 阅读(174) 评论(0) 推荐(0) 编辑
摘要:一、线性模型 二、支持向量机 三、贝叶斯模型 四、决策树 五、KNN 六 、AdaBoost 七、梯度提升树 八、Random Forest 阅读全文
posted @ 2019-12-27 19:41 nxf_rabbit75 阅读(199) 评论(0) 推荐(0) 编辑
摘要:一、PCA 二、MDS 三、Isomap 四、LocallyLinearEmbedding 五、FA 六、FastICA 七、t-SNE 阅读全文
posted @ 2019-12-27 19:40 nxf_rabbit75 阅读(144) 评论(0) 推荐(0) 编辑
摘要:一、特征处理 二、特征选择 三、字典学习 四、PipeLine 阅读全文
posted @ 2019-12-27 19:38 nxf_rabbit75 阅读(168) 评论(0) 推荐(0) 编辑
摘要:查看sklearn支持的评价指标: sklearn详细用法 阅读全文
posted @ 2019-07-18 15:04 nxf_rabbit75 阅读(1813) 评论(0) 推荐(0) 编辑
摘要:参考文献: 【1】用scikit-learn学习DBSCAN聚类 阅读全文
posted @ 2019-06-25 17:10 nxf_rabbit75 阅读(256) 评论(0) 推荐(0) 编辑
摘要:1. 普通线性回归 Linear Regression (1)目标: (2)参数: (3)sklearn的三个坑 【1】均方误差为负 我们在决策树和随机森林中都提到过,虽然均方误差永远为正,但是sklearn中的参数scoring下,均方误差作为评 判标准时,却是计算”负均方误差“(neg_mean 阅读全文
posted @ 2019-03-08 19:43 nxf_rabbit75 阅读(3642) 评论(0) 推荐(0) 编辑
摘要:一、什么是逻辑回归? 一种名为“回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法 面试高危问题:Sigmoid函数的公式和性质 Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g(z)趋近 于0,它能够将 阅读全文
posted @ 2019-01-17 15:51 nxf_rabbit75 阅读(3318) 评论(0) 推荐(0) 编辑
摘要:一、用SVM实现二分类 支持向量机分类器,是在数据空间中找出一个超平面作为决策边界,利用这个决策边界来对数据进行分类,并使分类误差尽量小的模型 class sklearn.svm.SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto_deprecated’, 阅读全文
posted @ 2019-01-13 14:17 nxf_rabbit75 阅读(561) 评论(0) 推荐(0) 编辑
摘要:新版本更新:https://blog.csdn.net/BF02jgtRS00XKtCx/article/details/103573018 阅读全文
posted @ 2019-01-13 10:48 nxf_rabbit75 阅读(185) 评论(0) 推荐(0) 编辑
摘要:StratifiedKFold用法类似Kfold,但是他是分层采样,确保训练集,测试集中各类别样本的比例与原始数据集中相同。 例子: 结果: 分析:可以看到StratifiedKFold 分层采样交叉切分,确保训练集,测试集中各类别样本的比例与原始数据集中相同。 阅读全文
posted @ 2018-10-13 09:14 nxf_rabbit75 阅读(1478) 评论(0) 推荐(0) 编辑
摘要:preprocess Logistic Regression LightGBM 1. 二分类 2.多分类 XGBoost 1. 二分类 处理正负样本不均匀的案例 主要思路 1. 手动调整正负样本比例 2. 过采样 Over Sampling 对训练集里面样本数量较少的类别(少数类)进行过采样,合成新 阅读全文
posted @ 2018-10-06 20:22 nxf_rabbit75 阅读(5255) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示