摘要: 集成算法 把训练集分为B个(可重复),即bootstrap数据集,然后分别求出其中的beta值然后进行加权平均。如果每个子集的错误都是独立的,这种方法就可以减小误差。Variance一定减小。 在决策树方面,这种方法尤为有效。缺点是解释性降低。代表算法有random forest。 每一次的迭代都要 阅读全文