上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 31 下一页
摘要: ##anaconda的报错:Anaconda:There is an instance of anaconda navigator already running error 出现这个问题的时候人蒙了,主要是从任务管理器还找不到进程 网上给出的方法啥都有 首先调出控制台(win+r,输入cmd),然 阅读全文
posted @ 2021-01-30 00:21 DbWong_0918 阅读(7605) 评论(0) 推荐(1) 编辑
摘要: ##Stacking 先前学习的集成学习 先前的思路很简单,假设有三个算法,每个算法都对数据进行一个预测,最后综合这三个结果得出一个最终结果,对于分类问题可以进行少数服从多数,对于回归问题可以简单地取平均值 stacking是另一种思路,对于stacking这个方法来说,假设有三个算法,首先求出这三 阅读全文
posted @ 2021-01-30 00:11 DbWong_0918 阅读(641) 评论(0) 推荐(0) 编辑
摘要: ##Ada Boosting和Gradient Boosting ###Ada Boosting 除了先前的集成学习的思路以外,还有一种集成学习的思路boosting,这种思路,也是集成多个模型,但是和bagging不同的是,bagging的模型之间是独立的关系,但是在boosting中,模型之间不 阅读全文
posted @ 2021-01-30 00:08 DbWong_0918 阅读(321) 评论(0) 推荐(0) 编辑
摘要: ##随机森林和Extra-Trees ###随机森林 先前说了bagging的方法,其中使用的算法都是决策树算法,对于这样的模型,因为具有很多棵树,而且具备了随机性,那么就可以称为随机森林 在sklearn中封装了随机森林的类,可以使用这个类直接创建出一个随机森林,同时sklearn中的随机森林模型 阅读全文
posted @ 2021-01-30 00:04 DbWong_0918 阅读(2398) 评论(0) 推荐(0) 编辑
摘要: ##Bagging和Pasting以及oob(Out-of-Bag) ###Bagging和Pasting 前面讲到soft voting classifier和hard voting classifier两个方法,但是这是有很大的问题的,集成学习就是集合多个算法让这几个算法一起计算投票,最后得到好 阅读全文
posted @ 2021-01-30 00:01 DbWong_0918 阅读(820) 评论(0) 推荐(0) 编辑
摘要: ##集成学习入门之soft voting classifier和hard voting classifier ###集成学习 通过构建并结合多个学习器来完成学习任务,一般是先产生一组“个体学习器”,再用某种策略将它们结合起来,有很多种形式,像是投票,概率比较等等,像是投票就是少数服从多数 生活中经常 阅读全文
posted @ 2021-01-29 23:56 DbWong_0918 阅读(1331) 评论(0) 推荐(0) 编辑
摘要: ##决策树的局限性 局限性这方面,很明显的一点就是关于决策边界的划分,决策树的决策边界是非常规整的,都是直线,垂直于横轴或者垂直于纵轴 这就导致了绘制出的决策边界很可能不是真实情况的决策边界,如果决策边界是一条斜线,那么决策树的决策边界一定不对,因为画不出来,乂,多捞嗷 而且可能因为数据的数量不够多 阅读全文
posted @ 2021-01-28 21:04 DbWong_0918 阅读(416) 评论(0) 推荐(0) 编辑
摘要: ##决策树解决回归问题 如果输出是一个具体的数,这就是一个回归问题,相应的一个新的样本点到了决策树之后,使用决策树以后到达叶子节点中,就可以用叶子节点中相应的数据输出值的平均值来作为预测的结果 具体实现 (在notebook中) 加载好需要的类库,使用波士顿房价这个数据集,对数据集进行训练数据集和测 阅读全文
posted @ 2021-01-28 21:02 DbWong_0918 阅读(628) 评论(0) 推荐(0) 编辑
摘要: ##CART与决策树中的超参数 先前的决策树其实应该称为CART CART的英文是Classification and regression tree,全称为分类与回归树,其是在给定输入随机变量X条件下输出随机变量Y的条件概率分布的学习方法,就是假设决策树是二叉树,内部结点特征的取值为“是”和“否” 阅读全文
posted @ 2021-01-28 20:59 DbWong_0918 阅读(668) 评论(0) 推荐(0) 编辑
摘要: ##基尼系数 使用信息熵的方式对决策树进行划分 除了时候信息熵来进行划分,还可以使用另一个指标来进行划分,指标就是基尼系数 基尼系数的式子很简单,取值情况和信息熵一样 假设有两个类别,一个占比x,另一个占比1-x,那么上面的式子就可以变成(抛物线) 可以发现这个是以0.5为对称轴的,即0.5的时候取 阅读全文
posted @ 2021-01-28 20:54 DbWong_0918 阅读(333) 评论(0) 推荐(0) 编辑
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 31 下一页