摘要:
为什么要处理缺失值 这一段完全是废话了。含有缺失数据的样本,你要么删了,要了就填充上什么值。删了就会损失一部分的样本信息,填充要是填充的不合适,会给样本增加噪音。 所以这就是一个选择的问题: 选择删除还是填充; 选择填充方式 处理缺失值的8种方法 这里先说一下,我总结了自己在竞赛中的操作,以及一些大 阅读全文
摘要:
文章来自:一个宝藏公众号【机器学习炼丹术】 在SVM中,将约束问题转化成非约束问题采用到了拉格朗日乘子法。这个文章就讲一下拉格朗日乘子法与KKT约束是怎么回事。本人不是数学科班出身,但是也只能硬着头皮讲一讲了。 从零理解 现在我们要解决这样一个问题: \(x^2y=3\) 这个函数距离原点最近的距离 阅读全文
摘要:
非极大抑制 NMS的英文是Non-maximum suppression的缩写。 简单的说,就是模型给出了多个重叠在一起的候选框,我们只需要保留一个就可以了。其他的重叠的候选框就删掉了,效果可见下图: 交并比 IoU的英文全称Intersection over Union,就是两个候选框区域的交集面 阅读全文
摘要:
本文主要是回顾一下一些经典的CNN网络的主要贡献。 论文传送门 【google团队】 [2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pdf [2015.02]inception v2: https://arxiv.org/pdf/150 阅读全文
摘要:
这是个人在竞赛中对LGB模型进行调参的详细过程记录,主要包含下面六个步骤: 大学习率,确定估计器参数n_estimators/num_iterations/num_round/num_boost_round; 确定num_leaves和max_depth 确定min_data_in_leaf 确定b 阅读全文
摘要:
SVM现在主流的有两个方法。一个是传统的推导,计算支持向量求解的方法,一个是近几年兴起的梯度下降的方法。 梯度下降方法的核心是使用了hinge loss作为损失函数,所以最近也有人提出的深度SVM其实就是使用hinge loss的神经网络。 本文的目的是讲解传统的推导。 SVM的超平面 SVM模型的 阅读全文
摘要:
卷积网络的平移不变性可能会经常在论文中看到,那这个到底是什么呢?看了一些论文的原文和网络上十几篇讲这个的博文,大概捋清了思路然后写下这个。不得不说,有的博文讲的有那么点问题。 1 什么是不变性 【不变性】就是目标发生了变换,但是你依然可以识别出来。在图像任务中,我们希望图像中的目标即使被平移、被旋转 阅读全文
摘要:
校招在即,准备准备一些面试可能会用到的东西吧。希望这次面试不会被挂。 基本概念 说到机器学习模型的误差,主要就是bias和variance。 Bias:如果一个模型的训练错误大,然后验证错误和训练错误都很大,那么这个模型就是高bias。可能是因为欠拟合,也可能是因为模型是弱分类器。 Variance 阅读全文
摘要:
作者前言 在2020年还在整理XGB的算法,其实已经有点过时了。。不过,主要是为了学习算法嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradient-boost算法,这篇文章讲解一下XGBoost。 阅读全文
摘要:
先缕一缕几个关系: GBDT是gradient-boost decision tree GBDT的核心就是gradient boost,我们搞清楚什么是gradient boost就可以了 GBDT是boost中的一种方法,boost还有XGBoost,adaboost。 基本概念 【Boost】就 阅读全文