摘要: Blending与Stacking大致相同,只是Blending的主要区别在于训练集不是通过K-Fold的CV策略来获得预测值从而生成第二阶段模型的特征,而是建立一个Holdout集,例如10%的训练数据,第二阶段的stacker模型就基于第一阶段模型对这10%训练数据的预测值进行拟合。说白了,就是把Stacking流程中的K-Fold CV 改成 HoldOut CV。 阅读全文
posted @ 2019-05-20 15:55 2048的渣渣 阅读(355) 评论(0) 推荐(0) 编辑
摘要: Stacking简单理解就是讲几个简单的模型,一般采用将它们进行K折交叉验证输出预测结果,然后将每个模型输出的预测结果合并为新的特征,并使用新的模型加以训练。 阅读全文
posted @ 2019-05-20 15:41 2048的渣渣 阅读(188) 评论(0) 推荐(0) 编辑
摘要: GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。 阅读全文
posted @ 2019-05-20 11:28 2048的渣渣 阅读(160) 评论(0) 推荐(0) 编辑