会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
mantch
公告
日历
导航
博客园
首页
新随笔
新文章
联系
订阅
管理
上一页
1
2
3
4
5
6
下一页
2019年7月11日
LightGBM,面试会问到的都在这了(附代码)!
摘要: 1. LightGBM是什么东东 不久前微软DMTK(分布式机器学习工具包)团队在GitHub上开源了性能超越其他boosting工具的LightGBM,在三天之内GitHub上被star了1000次,fork了200次。知乎上有近千人关注“如何看待微软开源的LightGBM?”问题,被评价为“速...
阅读全文
posted @ 2019-07-11 08:59 mantch
阅读(4898)
评论(1)
推荐(1)
编辑
2019年7月10日
终于有人说清楚了--XGBoost算法
摘要: 文章目录1. 什么是XGBoost1.1 XGBoost树的定义1.2 正则项:树的复杂度1.3 树该怎么长1.4 如何停止树的循环生成2. XGBoost与GBDT有什么不同3. 为什么XGBoost要用泰勒展开,优势在哪里?4. 代码实现5. 参考文献 1. 什么是XGBoost XGBoos...
阅读全文
posted @ 2019-07-10 15:25 mantch
阅读(354229)
评论(6)
推荐(23)
编辑
2019年7月9日
GBDT--原来是这么回事(附代码)
摘要: GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值,然后下一个弱分类器去拟合误差函数对预测值的残差(这个残差就是预测值与真实值之间的误差)。当然了,它里面的弱分类器的表现形式就是各棵树。
阅读全文
posted @ 2019-07-09 21:09 mantch
阅读(8781)
评论(2)
推荐(0)
编辑
2019年7月7日
随机森林--你想到的,都在这了。
摘要: 文章目录1.什么是随机森林1.1 Bagging思想1.2 随机森林2. 随机森林分类效果的影响因素3. 随机森林有什么优缺点4. 随机森林如何处理缺失值?5. 什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?6. 随机森林的过拟合问题7. 代码实现 1.什么是随机森林 1.1
阅读全文
posted @ 2019-07-07 14:27 mantch
阅读(10930)
评论(0)
推荐(2)
编辑
看完这篇--决策树,80%都懂了
摘要: 1. 什么是决策树 1.1 决策树的基本思想 其实用一下图片能更好的理解LR模型和决策树模型算法的根本区别,我们可以思考一下一个决策问题:是否去...
阅读全文
posted @ 2019-07-07 10:06 mantch
阅读(9693)
评论(3)
推荐(3)
编辑
2019年7月6日
看完这篇,逻辑回归80%都懂了
摘要: 1. 什么是逻辑回归 逻辑回归是用来做分类算法的,大家都熟悉线性回归,一般形式是Y=aX+b,y的取值范围是[-∞, +∞],有这么多取值,怎么...
阅读全文
posted @ 2019-07-06 11:59 mantch
阅读(4699)
评论(0)
推荐(3)
编辑
2019年7月5日
好记忆的机器学习面试--线性回归
摘要: 1.什么是线性回归 线性:两个变量之间的关系是一次函数关系的——图象是直线,叫做线性。 非线性:两个变量之间的关系不是一次函数关系的——图象不是...
阅读全文
posted @ 2019-07-05 22:26 mantch
阅读(2040)
评论(0)
推荐(0)
编辑
2019年5月9日
NLP从词袋到Word2Vec的文本表示
摘要: 在NLP(自然语言处理)领域,文本表示是第一步,也是很重要的一步,通俗来说就是把人类的语言符号转化为机器能够进行计算的数字,因为普通的文本语言机...
阅读全文
posted @ 2019-05-09 20:26 mantch
阅读(1865)
评论(0)
推荐(0)
编辑
2019年4月7日
《数学之美》--第一章:文字和语言 vs 数字和信息
摘要: 第一章 文字和语言 vs 数字和信息 数字、文字和自然语言一样,都是信息的载体,它们之间原本有着天然的联系。语言和数学的产生都是为了...
阅读全文
posted @ 2019-04-07 13:27 mantch
阅读(545)
评论(0)
推荐(0)
编辑
2019年1月8日
通俗易懂--岭回归(L2)、lasso回归(L1)、ElasticNet讲解(算法+案例)
摘要: 1.L2正则化(岭回归) 1.1问题 想要理解什么是正则化,首先我们先来了解上图的方程式。当训练的特征和数据很少时,往往会造成欠拟合的情况,对应...
阅读全文
posted @ 2019-01-08 23:43 mantch
阅读(16988)
评论(1)
推荐(0)
编辑
上一页
1
2
3
4
5
6
下一页
Copyright © 2024 mantch
Powered by .NET 8.0 on Kubernetes