2017年12月22日

《转》牛顿法与拟牛顿法学习笔记

摘要: from http://blog.csdn.net/itplus/article/details/21896453 阅读全文

posted @ 2017-12-22 22:04 mdumpling 阅读(143) 评论(0) 推荐(0) 编辑

凸优化

摘要: from https://www.jianshu.com/p/fe2e7f0e89e5 阅读全文

posted @ 2017-12-22 21:48 mdumpling 阅读(219) 评论(0) 推荐(0) 编辑

决策树剪枝算法-悲观剪枝算法(PEP)

摘要: 前言 在机器学习经典算法中,决策树算法的重要性想必大家都是知道的。不管是ID3算法还是比如C4.5算法等等,都面临一个问题,就是通过直接生成的完全决策树对于训练样本来说是“过度拟合”的,说白了是太精确了。由于完全决策树对训练样本的特征描述得“过于精确” ,无法实现对新样本的合理分析, 所以此时它不是 阅读全文

posted @ 2017-12-22 19:45 mdumpling 阅读(2713) 评论(0) 推荐(1) 编辑

决策树剪枝的三种方法

摘要: 什么是剪枝? 剪枝是指将一颗子树的子节点全部删掉,根节点作为叶子节点,以下图为例: 为甚么要剪枝? 决策树是充分考虑了所有的数据点而生成的复杂树,有可能出现过拟合的情况,决策树越复杂,过拟合的程度会越高。 考虑极端的情况,如果我们令所有的叶子节点都只含有一个数据点,那么我们能够保证所有的训练数据都能 阅读全文

posted @ 2017-12-22 19:32 mdumpling 阅读(5595) 评论(0) 推荐(0) 编辑

梯度弥散与梯度爆炸

摘要: from http://www.cnblogs.com/yangmang/p/7477802.html 问题描述 先来看看问题描述。 当我们使用sigmoid funciton 作为激活函数时,随着神经网络hidden layer层数的增加,训练误差反而加大了,如上图所示。 下面以2层隐藏层神经网络 阅读全文

posted @ 2017-12-22 19:06 mdumpling 阅读(350) 评论(0) 推荐(0) 编辑

算法岗面试题积累一

摘要: 1: LSTM结构推导,为什么比RNN好?答案:推导forget gate,input gate,cell state, hidden information等的变化;因为LSTM有进有出且当前的cell informaton是通过input gate控制之后叠加的,RNN是叠乘,因此LSTM可以防 阅读全文

posted @ 2017-12-22 16:38 mdumpling 阅读(1317) 评论(0) 推荐(0) 编辑

导航