会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
//
// // //
努力的孔子
2019年4月18日
特征选择
摘要: 特征选择顾名思义就是从众多特征中选出和目标相关的特征,它是机器学习中很重要的一个环节。 子集选择与评价 从众多特征中选出部分特征构成特征的一个子集,就叫子集选择, 子集特征是否能很好地表征目标,需要对子集特征进行评价。 子集选择可以有前向搜索、后向搜索和双向搜索三种方式。 前向搜索 假定给定特征集{
阅读全文
posted @ 2019-04-18 18:58 努力的孔子
阅读(837)
评论(0)
推荐(0)
编辑
集成学习-Adaboost 参数选择
摘要: 先看下ababoost和决策树效果对比 输出学习曲线 分析:随着样本数的增加,单决策树的预测精度稳定在0.5左右,是个弱分类器,而adaboost预测精度在0.85左右,明显高于单决策树,是个强分类器。 参数选择 上面的模型使用的是默认参数,其实还有优化的空间。 在集成学习中,参数调优一般是先选择框
阅读全文
posted @ 2019-04-18 11:47 努力的孔子
阅读(3560)
评论(0)
推荐(0)
编辑
sklearn-adaboost
摘要: sklearn中实现了adaboost分类和回归,即AdaBoostClassifier和AdaBoostRegressor, AdaBoostClassifier 实现了两种方法,即 SAMME 和 SAMME.R AdaBoostRegressor 用的 Adaboost.R2 框架参数 分类与
阅读全文
posted @ 2019-04-18 11:17 努力的孔子
阅读(2560)
评论(0)
推荐(0)
编辑
集成学习-Adaboost
摘要: Adaboost 中文名叫自适应提升算法,是一种boosting算法。 boosting算法的基本思想 对于一个复杂任务来说,单个专家的决策过于片面,需要集合多个专家的决策得到最终的决策,通俗讲就是三个臭皮匠顶个诸葛亮。 对于给定的数据集,学习到一个较弱的分类器比学习到一个强分类器容易的多,boos
阅读全文
posted @ 2019-04-18 10:19 努力的孔子
阅读(1071)
评论(0)
推荐(0)
编辑
导航
博客园
首页
新随笔
新文章
联系
订阅
管理