摘要: 1. xgboost在目标函数中加入了正则化项,当正则化项为0时与传统的GDBT的目标函数相同2. xgboost在迭代优化的时候使用了目标函数的泰勒展开的二阶近似,paper中说能加快优化的过程!!xgboost可自定义目标函数,但是目标函数必须二阶可导也是因为这个。GDBT中只用了一阶导数。3. 阅读全文
posted @ 2018-08-24 19:59 有梦就要去实现他 阅读(580) 评论(0) 推荐(0) 编辑
摘要: 欧式距离: l2范数: l2正则化: l2-loss(也叫平方损失函数): http://openaccess.thecvf.com/content_cvpr_2017/papers/Li_Mimicking_Very_Efficient_CVPR_2017_paper.pdf 总结:l2范数和欧式 阅读全文
posted @ 2018-08-24 18:18 有梦就要去实现他 阅读(11014) 评论(0) 推荐(1) 编辑
摘要: 1)Bagging + 决策树 = 随机森林 2)AdaBoost + 决策树 = 提升树 3)Gradient Boosting + 决策树 = GBDT 阅读全文
posted @ 2018-08-24 16:55 有梦就要去实现他 阅读(96) 评论(0) 推荐(0) 编辑
摘要: boosting 是一种将弱分类器转化为强分类器的方法统称,而adaboost是其中的一种,或者说AdaBoost是Boosting算法框架中的一种实现 https://www.zhihu.com/question/37683881 gdbt(Gradient Boosting Decision T 阅读全文
posted @ 2018-08-24 16:26 有梦就要去实现他 阅读(1104) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/32230623 首先定义:待优化参数: ,目标函数: ,初始学习率 。 而后,开始进行迭代优化。在每个epoch : sgd: 先来看SGD。SGD没有动量的概念,也就是说: 代入步骤3,可以看到下降梯度就是最简单的 SGD缺点:下降速度慢 阅读全文
posted @ 2018-08-24 01:56 有梦就要去实现他 阅读(647) 评论(0) 推荐(0) 编辑
摘要: 反向传播:https://zhuanlan.zhihu.com/p/22473137 https://blog.csdn.net/cppjava_/article/details/68941436 2.解决梯度爆炸问题的方法 通常会使用一种叫”clip gradients “的方法. 它能有效地权重 阅读全文
posted @ 2018-08-24 01:02 有梦就要去实现他 阅读(714) 评论(0) 推荐(0) 编辑
摘要: 作者:魏秀参链接:https://www.zhihu.com/question/38102762/answer/85238569来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 1. What is BN?规范化!即在每次SGD时,通过mini-batch来对相应的ac 阅读全文
posted @ 2018-08-24 00:43 有梦就要去实现他 阅读(318) 评论(0) 推荐(0) 编辑