上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页
摘要: 为什么要处理缺失值 这一段完全是废话了。含有缺失数据的样本,你要么删了,要了就填充上什么值。删了就会损失一部分的样本信息,填充要是填充的不合适,会给样本增加噪音。 所以这就是一个选择的问题: 选择删除还是填充; 选择填充方式 处理缺失值的8种方法 这里先说一下,我总结了自己在竞赛中的操作,以及一些大 阅读全文
posted @ 2020-07-26 07:12 忽逢桃林 阅读(3132) 评论(0) 推荐(0) 编辑
摘要: 文章来自:一个宝藏公众号【机器学习炼丹术】 在SVM中,将约束问题转化成非约束问题采用到了拉格朗日乘子法。这个文章就讲一下拉格朗日乘子法与KKT约束是怎么回事。本人不是数学科班出身,但是也只能硬着头皮讲一讲了。 从零理解 现在我们要解决这样一个问题: \(x^2y=3\) 这个函数距离原点最近的距离 阅读全文
posted @ 2020-07-25 20:45 忽逢桃林 阅读(1700) 评论(0) 推荐(1) 编辑
摘要: 非极大抑制 NMS的英文是Non-maximum suppression的缩写。 简单的说,就是模型给出了多个重叠在一起的候选框,我们只需要保留一个就可以了。其他的重叠的候选框就删掉了,效果可见下图: 交并比 IoU的英文全称Intersection over Union,就是两个候选框区域的交集面 阅读全文
posted @ 2020-07-25 02:57 忽逢桃林 阅读(616) 评论(0) 推荐(0) 编辑
摘要: 本文主要是回顾一下一些经典的CNN网络的主要贡献。 论文传送门 【google团队】 [2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pdf [2015.02]inception v2: https://arxiv.org/pdf/150 阅读全文
posted @ 2020-07-24 22:21 忽逢桃林 阅读(695) 评论(0) 推荐(0) 编辑
摘要: 这是个人在竞赛中对LGB模型进行调参的详细过程记录,主要包含下面六个步骤: 大学习率,确定估计器参数n_estimators/num_iterations/num_round/num_boost_round; 确定num_leaves和max_depth 确定min_data_in_leaf 确定b 阅读全文
posted @ 2020-07-23 01:02 忽逢桃林 阅读(3580) 评论(0) 推荐(2) 编辑
摘要: SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实就是使用hinge loss的神经网络。 本文的目的是讲解传统的推导。 SVM的超平面 SVM模型的 阅读全文
posted @ 2020-07-22 17:17 忽逢桃林 阅读(722) 评论(0) 推荐(0) 编辑
摘要: 卷积网络的平移不变性可能会经常在论文中看到,那这个到底是什么呢?看了一些论文的原文和网络上十几篇讲这个的博文,大概捋清了思路然后写下这个。不得不说,有的博文讲的有那么点问题。 1 什么是不变性 【不变性】就是目标发生了变换,但是你依然可以识别出来。在图像任务中,我们希望图像中的目标即使被平移、被旋转 阅读全文
posted @ 2020-07-22 01:31 忽逢桃林 阅读(2165) 评论(0) 推荐(0) 编辑
摘要: 校招在即,准备准备一些面试可能会用到的东西吧。希望这次面试不会被挂。 基本概念 说到机器学习模型的误差,主要就是bias和variance。 Bias:如果一个模型的训练错误大,然后验证错误和训练错误都很大,那么这个模型就是高bias。可能是因为欠拟合,也可能是因为模型是弱分类器。 Variance 阅读全文
posted @ 2020-06-24 18:17 忽逢桃林 阅读(1035) 评论(0) 推荐(0) 编辑
摘要: 作者前言 在2020年还在整理XGB的算法,其实已经有点过时了。。不过,主要是为了学习算法嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradient-boost算法,这篇文章讲解一下XGBoost。 阅读全文
posted @ 2020-06-22 20:58 忽逢桃林 阅读(1588) 评论(0) 推荐(0) 编辑
摘要: 先缕一缕几个关系: GBDT是gradient-boost decision tree GBDT的核心就是gradient boost,我们搞清楚什么是gradient boost就可以了 GBDT是boost中的一种方法,boost还有XGBoost,adaboost。 基本概念 【Boost】就 阅读全文
posted @ 2020-06-22 03:29 忽逢桃林 阅读(603) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页