会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Lv.的博客
Avatarx
此博客专攻计算机语言。
博客园
首页
新随笔
联系
管理
订阅
2019年8月22日
bagging,random forest,boosting(adaboost、GBDT),XGBoost小结
摘要: Bagging 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping(有放回)的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(我们这里假设k个训练集之间是相互独立的,事实上不是完全独立) 每次使用一
阅读全文
posted @ 2019-08-22 11:07 Avatarx
阅读(539)
评论(0)
推荐(0)
编辑
公告