摘要: https://blog.csdn.net/guoxinian/article/details/79243307 写的超级棒 阅读全文
posted @ 2019-04-06 16:09 胖白白 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 首先明确一点,gbdt 无论用于分类还是回归一直都是使用的CART 回归树。不会因为我们所选择的任务是分类任务就选用分类树,这里面的核心是因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的。 阅读全文
posted @ 2019-04-06 15:26 胖白白 阅读(255) 评论(0) 推荐(0) 编辑
摘要: 原博客链接:https://blog.csdn.net/tz_zs/article/details/80775256 np.around: 四舍五入取整 n = np.array([-0.746, 4.6, 9.4, 7.447, 10.455, 11.555]) around1 = np.arou 阅读全文
posted @ 2019-04-06 11:13 胖白白 阅读(1603) 评论(0) 推荐(0) 编辑