会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
_1024
Powered by
博客园
博客园
|
首页
|
新随笔
|
联系
|
订阅
|
管理
上一页
1
···
3
4
5
6
7
8
下一页
2016年12月10日
模型集成04-GMM
摘要: 机器学习基础06:GMM
阅读全文
posted @ 2016-12-10 22:42 _1024
阅读(112)
评论(0)
推荐(0)
编辑
模型集成03-RF/GBDT/GBDT+LR
摘要: 机器学习基础06:RF
阅读全文
posted @ 2016-12-10 22:41 _1024
阅读(107)
评论(0)
推荐(0)
编辑
模型集成02-AdaBoost
摘要: 这个topic内容不多,一点基础概念吧。
阅读全文
posted @ 2016-12-10 22:40 _1024
阅读(102)
评论(0)
推荐(0)
编辑
模型集成01-Bagging/Boosting/Stacking
摘要: 1、常用的集成学习方式 目前来看,常用的集成学习可以分为三类:Bagging、Boosting、Stacking。其中: Bagging使用相同的数据集和相同类型的基决策器。不同的基决策器,并行地通过自举采样,分别训练一个决策器,然后对分类结果进行投票,从而获得最终结果。以RF为代表。 Boosti
阅读全文
posted @ 2016-12-10 22:40 _1024
阅读(155)
评论(0)
推荐(0)
编辑
基础模型05-贝叶斯模型
摘要: 1、NB 2、平滑方法 3、NB在文本分类中的应用和分析 4、DBN
阅读全文
posted @ 2016-12-10 22:39 _1024
阅读(116)
评论(0)
推荐(0)
编辑
基础模型04-FM/FFM
摘要: 信息增益 1.为什么选择信息增益最大的特征? 信息增益=信息熵-条件熵;信息增益越大,表面条件熵越小,条件熵越小,表明不确定性越小;也就是说,此条件的辨识度越高。
阅读全文
posted @ 2016-12-10 22:38 _1024
阅读(124)
评论(0)
推荐(0)
编辑
基础模型03-SVM
摘要: 1、SVM形式 2、线性SVM及其求解 3、近似线性可分SVM的求解 3.1、KKT条件 3.2、SMO算法 4、线性不可分SVM算法 4.1、核方法
阅读全文
posted @ 2016-12-10 22:36 _1024
阅读(87)
评论(0)
推荐(0)
编辑
基础模型02-LR+ME+SOFTMAX+GLM
摘要: 1、LR 1.1、LR的用处和求解 1.2、LR的两种解释 1)直观解释 2)基于ME的解释 2、ME 3、SOFTMAX 4、GLM,广义线性模型相关理论
阅读全文
posted @ 2016-12-10 22:36 _1024
阅读(108)
评论(0)
推荐(0)
编辑
基础模型01-感知机
摘要: 1、感知机基础 2、感知机求解 2.1、感知机在原空间的求解 2.2、感知机在对偶空间的求解 3、感知机和MLP、SVM的进化关系 3.2、感知机对偶求解和SVM对偶求解的关系
阅读全文
posted @ 2016-12-10 22:34 _1024
阅读(122)
评论(0)
推荐(0)
编辑
ML基础04-数据降维和可视化
摘要: 太累了,实在是不想写了,以后补吧 1、数据降维 1.1、什么是数据降维 1.2、什么时候需要数据降维 2、线性降维 2.1、PCA 2.2、LDA 2.3、总结 3、流形学习 3.1、什么是流形学习 3.2、ISOMap 3.3、LLE 4、t-SNE和可视化 5、DeepAE 6、总结
阅读全文
posted @ 2016-12-10 22:24 _1024
阅读(183)
评论(0)
推荐(0)
编辑
上一页
1
···
3
4
5
6
7
8
下一页