随笔分类 - Scikit-learn
摘要:scikit-learn 0.17之后就不再支持隐马尔可夫模型,而是将其独立拎出来作为单独的包。其中: hmmlearn:无监督隐马尔可夫模型 seqlearn :监督隐马尔可夫模型 一些通用的参数: verbose:一个正数。用于开启/关闭迭代中间输出日志功能。 数值越大,则日志越详细。 数值为0
阅读全文
摘要:一、标签传播算法 scikit-learn 有两个类实现了标签传播算法: LabelPropagation:迭代过程: 执行标签传播: 。 重置 中的标签样本标记:,其中 表示 的前行。 Lab
阅读全文
摘要:(一)通用方法、参数 1.通用方法 get_params([deep]):返回模型的参数。 deep: 如果为True,则可以返回模型参数的子对象。 set_params(**params):设置模型的参数。 params:待设置的关键字参数。 fit(X[, y, sample_weight])
阅读全文
摘要:一、数据集切分 二、性能度量 三、验证曲线 && 学习曲线 四、超参数优化
阅读全文
摘要:一、线性模型 二、支持向量机 三、贝叶斯模型 四、决策树 五、KNN 六 、AdaBoost 七、梯度提升树 八、Random Forest
阅读全文
摘要:一、PCA 二、MDS 三、Isomap 四、LocallyLinearEmbedding 五、FA 六、FastICA 七、t-SNE
阅读全文
摘要:一、特征处理 二、特征选择 三、字典学习 四、PipeLine
阅读全文
摘要:查看sklearn支持的评价指标: sklearn详细用法
阅读全文
摘要:参考文献: 【1】用scikit-learn学习DBSCAN聚类
阅读全文
摘要:1. 普通线性回归 Linear Regression (1)目标: (2)参数: (3)sklearn的三个坑 【1】均方误差为负 我们在决策树和随机森林中都提到过,虽然均方误差永远为正,但是sklearn中的参数scoring下,均方误差作为评 判标准时,却是计算”负均方误差“(neg_mean
阅读全文
摘要:一、什么是逻辑回归? 一种名为“回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法 面试高危问题:Sigmoid函数的公式和性质 Sigmoid函数是一个S型的函数,当自变量z趋近正无穷时,因变量g(z)趋近于1,而当z趋近负无穷时,g(z)趋近 于0,它能够将
阅读全文
摘要:一、用SVM实现二分类 支持向量机分类器,是在数据空间中找出一个超平面作为决策边界,利用这个决策边界来对数据进行分类,并使分类误差尽量小的模型 class sklearn.svm.SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto_deprecated’,
阅读全文
摘要:新版本更新:https://blog.csdn.net/BF02jgtRS00XKtCx/article/details/103573018
阅读全文
摘要:StratifiedKFold用法类似Kfold,但是他是分层采样,确保训练集,测试集中各类别样本的比例与原始数据集中相同。 例子: 结果: 分析:可以看到StratifiedKFold 分层采样交叉切分,确保训练集,测试集中各类别样本的比例与原始数据集中相同。
阅读全文
摘要:preprocess Logistic Regression LightGBM 1. 二分类 2.多分类 XGBoost 1. 二分类 处理正负样本不均匀的案例 主要思路 1. 手动调整正负样本比例 2. 过采样 Over Sampling 对训练集里面样本数量较少的类别(少数类)进行过采样,合成新
阅读全文