摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 Backpropagation 梯度消失、梯度爆炸 常用的激活函数 参数更新方法 解决overfitting的方法 1.Backp 阅读全文
posted @ 2018-05-09 23:04 笨拙的忍者 阅读(489) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 数据归一化(或者标准化,注意归一化和标准化不同)的原因 SVD和PCA 防止过拟合的方法 数据不平衡问题 1.数据归一化(或者标准 阅读全文
posted @ 2018-05-09 21:59 笨拙的忍者 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 分类器的好坏 1.分类器的好坏 这里首先要知道TP、FN(真的判成假的)、FP(假的判成真)、TN四种(可以画一个表格)。 几种常 阅读全文
posted @ 2018-05-09 21:38 笨拙的忍者 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 HMM CRF HMM和CRF对比 1.HMM算法 隐马尔可夫模型是用于标注问题的生成模型。有几个参数(ππ,A,B):初始状态概 阅读全文
posted @ 2018-05-09 21:35 笨拙的忍者 阅读(365) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 EM算法是用于含有隐变量模型的极大似然估计或者极大后验估计,有两步组成:E步,求期望(expectation);M步,求极大(ma 阅读全文
posted @ 2018-05-09 21:32 笨拙的忍者 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 摘自: https://zhuanlan.zhihu.com/p/27689464 Stacking方法是指训练一个模型用于组合其他各个模型。首先我们先训练多个不同的模型,然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。理论上,Stacking可以表示上面提到的两种Ense 阅读全文
posted @ 2018-05-09 21:25 笨拙的忍者 阅读(953) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 AdaBoost GBDT Xgboost 1.AdaBoost Boosting的本质实际上是一个加法模型,通过改变训练样本权重 阅读全文
posted @ 2018-05-09 21:23 笨拙的忍者 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 随机森林 1.随机森林 随机森林改变了决策树容易过拟合的问题,这主要是由两个操作所优化的:1、Boostrap从袋内有放回的抽取样 阅读全文
posted @ 2018-05-09 21:10 笨拙的忍者 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 带核的SVM为什么能分类非线性问题? RBF核一定是线性可分的吗? 常用核函数及核函数的条件 SVM的基本思想 是否所有的优化问题 阅读全文
posted @ 2018-05-09 20:52 笨拙的忍者 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 公式推导 逻辑回归的基本概念 L1-norm和L2-norm LR和SVM对比 LR和随机森林区别 常用的优化算法 1.公式推导( 阅读全文
posted @ 2018-05-09 20:43 笨拙的忍者 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 各种熵的计算 常用的树搭建方法 防止过拟合—剪枝 前剪枝的几种停止条件 1.各种熵的计算 熵、联合熵、条件熵、交叉熵、KL散度(相 阅读全文
posted @ 2018-05-09 17:44 笨拙的忍者 阅读(119) 评论(0) 推荐(0) 编辑