2018年9月18日

Bagging,Boosting,Stacking

摘要: 本文主要总结Bagging 和 Boosting 和 Stacking思想的异同点。这三种算法都可以称作为“meta-algorithms”,就是将多个机器学习方法集成到一个模型里面去降低方差,偏差,或者改善模型预测能力。通常bagging可以降低variance,boosting可以降低bias, 阅读全文

posted @ 2018-09-18 17:29 makino 阅读(462) 评论(0) 推荐(0) 编辑

2018年9月11日

Dimensionality Reduction

摘要: Dimensionality Reduction --Hands-on Machine Learning with Scikit-Learn and TensorFlow -Chapter 8 Introduction Two main approaches for Dimensionalty Re 阅读全文

posted @ 2018-09-11 12:18 makino 阅读(141) 评论(0) 推荐(0) 编辑

2018年9月10日

Ensemble Learning and Random Forests

摘要: Ensemble Learning and Random Forests Notes and codes from Hands-on ml using sklearn and tensorflow --chapter 7 集成学习(ensemble learning): 将一群预测模型放到一起称谓集 阅读全文

posted @ 2018-09-10 18:17 makino 阅读(204) 评论(0) 推荐(0) 编辑

2018年9月9日

随机森林&决策树概念总结(updated)

摘要: 随机森林和决策树常问概念总结,目的是针对面试,答案或许不完善甚至有错误的地方,需要不断updated。 1. 随机森林是什么? 随机森林是一种集成学习组合分类算法,属于bagging算法。集成学习的核心思想:将若干个分类器组合起来,得到一个分类性能显著优越的分类器。随机森林强调两个方面:随机+森林。 阅读全文

posted @ 2018-09-09 18:37 makino 阅读(494) 评论(0) 推荐(0) 编辑

导航