摘要:
转自:https://www.quora.com/What-are-the-advantages-of-different-classification-algorithms There are a number of dimensions you can look at to give you a sense of what will be a reasonable algorithm to ... 阅读全文
摘要:
决策树模型在监督学习中非常常见,可用于分类(二分类、多分类)和回归。虽然将多棵弱决策树的Bagging、Random Forest、Boosting等tree ensembel 模型更为常见,但是“完全生长”决策树因为其简单直观,具有很强的解释性,也有广泛的应用,而且决策树是tree ensembl 阅读全文
摘要:
转载地址:http://blog.csdn.net/w28971023/article/details/8240756 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树 阅读全文
摘要:
课程地址:https://class.coursera.org/ntumltwo-002/lecture 之前看过别人的竞赛视频,知道GBDT这个算法应用十分广泛。林在第八讲,简单的介绍了AdaBoost,这一讲会更深入的从优化的角度看AdaBoost,然后引出GBDT算法,最后林对最近几讲的集成学习模型(Aggregation Models)做了个很棒的总结。 一、RandomFores... 阅读全文
摘要:
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、随机森林(RF) 1.RF介绍 RF通过Bagging的方式将许多个CART组合在一起,不考虑计算代价,通常树越多越好。 RF中使用CART没有经过剪枝操作,一般会有比较大的偏差(variance),结合Bagging的平均效果可以降低CART的... 阅读全文
摘要:
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、决策树(Decision Tree)、口袋(Bagging),自适应增强(AdaBoost) Bagging和AdaBoost算法再分类的时候,是让所有的弱分类器同时发挥作用。它们之间的区别每个弱分离器是否对后来的blending生成G有相同... 阅读全文
摘要:
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、Adaptive Boosting 的动机 通过组合多个弱分类器(hypothese),构建一个更强大的分类器(hypothese),从而达到“三个臭皮匠赛过诸葛亮”的效果。 例如实际中,可以通过简单的“横”“竖”组成比较复杂的模型。 二、样本权重 ... 阅读全文
摘要:
课程地址:https://class.coursera.org/ntumltwo-002 重要!重要!重要~ 一、神经网络(NNet)的动机 神经网络有很久的历史,由感知机(perceptron)模型发展而来。单个的perceptron只能处理线性问题,通过组合(融合)多个perceptron,相当 阅读全文
摘要:
1、基本抓取网页 2、使用代理IP 在开发爬虫过程中经常会遇到IP被封掉的情况,这时就需要用到代理IP; 在urllib2包中有ProxyHandler类,通过此类可以设置代理访问网页,如下代码片段: 3、Cookies处理 cookies是某些网站为了辨别用户身份、进行session跟踪而储存在用 阅读全文
摘要:
http://kukuruku.co/hub/python/introduction-to-machine-learning-with-python-andscikit-learn Hello, %username%! My name is Alex. I deal with machine lea 阅读全文