上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 62 下一页
摘要: 由perceptron线性组成的一个神经网络: 通过赋予g不同的权值,来实现不同的切分功能: 但有的切分只通过一次特征转换是不够的,需要多次转换,如下:Neural Network Hypothesis:为了便于优化,将sign(离散)变成tanh,这个函数相当于regression的拉伸与... 阅读全文
posted @ 2015-08-04 17:37 牧马人夏峥 阅读(308) 评论(0) 推荐(0) 编辑
摘要: 将Adaboost和decision tree相结合,需要注意的地主是,训练时adaboost需要改变资料的权重,如何将有权重的资 料和decision tree相结合呢?方法很类似于前面讲过的bagging,通过采样资料来使资料获得不同的权重。 一棵完全的树的权值... 阅读全文
posted @ 2015-08-03 21:59 牧马人夏峥 阅读(1143) 评论(0) 推荐(0) 编辑
摘要: 这位博主总结的实在太好了,从原理到论文到代码,连论文都不用看:论文:http://blog.csdn.net/zouxy09/article/details/8118360 代码部分:http://blog.csdn.net/zouxy09/article/details/82101... 阅读全文
posted @ 2015-08-03 09:27 牧马人夏峥 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 随机森林就是要将这我们之前学的两个算法进行结合:bagging能减少variance(通过g们投票),而decision tree的variance很大,资料不同,生成的树也不同。 为了得到不同的g,除了用bootstrap用不同的资料得到不同的g外,还可以采用随即选择特征的方式... 阅读全文
posted @ 2015-08-02 16:57 牧马人夏峥 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 参考:http://www.cnblogs.com/GuoJiaSheng/p/4480497.html http://www.cnblogs.com/tornadomeet/archive/2012/04/12/2443993.html 阅读全文
posted @ 2015-08-02 08:18 牧马人夏峥 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 这是我们已经学到的(除Decision Tree外) 下面是一个典型的decision tree算法,有四个地方需要我们选择: 接着介绍了一个CART算法:通过decision stump分成两类,衡量子树的标准是,将数据分成两类后,这两类数据的纯度... 阅读全文
posted @ 2015-07-31 20:36 牧马人夏峥 阅读(237) 评论(0) 推荐(0) 编辑
摘要: vector: 本科时学C++的时候没学过vector,正好补一下。 第一个要注意的地方是要正确区分列表初始值还是元素数量。 第二点是不能使用范围for向vector对象添加元素,范围for语句体内不应改变其所遍历序列的大小。 不能用下标形式给vector添加元素 ... 阅读全文
posted @ 2015-07-28 19:23 牧马人夏峥 阅读(165) 评论(0) 推荐(0) 编辑
摘要: getline(cin,string s)可以读取一整行,包括空白符。使用ctrl+Z结束 字符串字面值与string是不同的类型。两个字符串字面值不能直接相加。 处理string对象中的字符时,C++定义了很多库函数,可方便使用。 如果想要处理每一个字符,... 阅读全文
posted @ 2015-07-28 19:20 牧马人夏峥 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 将分类器组合的过程中,将重点逐渐聚焦于那些被错分的样本点,这种做法背后的数学原因,就是这讲的内容。 在用bootstraping生成g的过程中,由于抽样对不同的g就生成了不同的u,接下来就是不断的调整u,使得Ein最小。 g越不同,通过... 阅读全文
posted @ 2015-07-28 16:51 牧马人夏峥 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 这位博主把目标检测的大致过程写了下来,总结的通俗易懂:http://blog.csdn.net/zouxy09/article/details/7928771 阅读全文
posted @ 2015-07-28 08:43 牧马人夏峥 阅读(173) 评论(0) 推荐(0) 编辑
上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 62 下一页