08 2017 档案

摘要:前面:好老的东西啊,啊啊啊啊啊啊啊啊啊 来源于统计学习方法: 信息增益: 其中 信息增益率: 基尼指数: 取gini最小的 先剪枝——在构造过程中,当某个节点满足剪枝条件,则直接停止此分支的构造。 后剪枝——先构造完成完整的决策树,再通过某些条件遍历树进行剪枝。 adaboost 阅读全文
posted @ 2017-08-28 11:09 simple_wxl 阅读(1447) 评论(0) 推荐(0) 编辑
摘要:GPU和CPU实现的不一样,这里贴的是CPU中的drop out 直接看caffe里面的源码吧:(产生满足伯努利分布的随机数mask,train的时候,data除以p,...... scale_ = 1. / (1. - threshold_); 阅读全文
posted @ 2017-08-24 23:55 simple_wxl 阅读(531) 评论(0) 推荐(0) 编辑
摘要:1、计算的均值和方差是channel的 2、test/predict 或者use_global_stats的时候,直接使用moving average use_global_stats 表示是否使用全部数据的统计值(该数据实在train 阶段通过moving average 方法计算得到)训练阶段设 阅读全文
posted @ 2017-08-24 21:36 simple_wxl 阅读(628) 评论(0) 推荐(0) 编辑
摘要:前面:关于层次huffman树和负例采样也要知道的,这里就不详细写了 来源于:https://mp.weixin.qq.com/s?__biz=MzI4MDYzNzg4Mw==&mid=2247485159&idx=1&sn=819152633c53fcae5334d031a05f7bf3&chks 阅读全文
posted @ 2017-08-21 12:54 simple_wxl 阅读(710) 评论(0) 推荐(0) 编辑
摘要:卧槽草草 来源于其它博客: 貌似我只知道group by key带来的倾斜 hive在跑数据时经常会出现数据倾斜的情况,使的作业经常reduce完成在99%后一直卡住,最后的1%花了几个小时都没跑完,这种情况就很可能是数据倾斜的原因,解决方法要根据具体情况来选择具体的方案 1、join的key值发生 阅读全文
posted @ 2017-08-15 18:23 simple_wxl 阅读(2407) 评论(0) 推荐(0) 编辑
摘要:来源知乎: dropout 的过程好像很奇怪,为什么说它可以解决过拟合呢?(正则化) 取平均的作用: 先回到正常的模型(没有dropout),我们用相同的训练数据去训练5个不同的神经网络,一般会得到5个不同的结果,此时我们可以采用 “5个结果取均值”或者“多数取胜的投票策略”去决定最终结果。(例如 阅读全文
posted @ 2017-08-08 22:59 simple_wxl 阅读(6770) 评论(0) 推荐(0) 编辑
摘要:题型一:非递归遍历二叉树后续 /** * Definition for a binary tree node. * struct TreeNode { * int val; * TreeNode *left; * TreeNode *right; * TreeNode(int x) : val(x) 阅读全文
posted @ 2017-08-06 18:35 simple_wxl 阅读(377) 评论(0) 推荐(0) 编辑
摘要:前面:我真的很不喜欢刷题 题型一:反转链表 题型二:反转链表2 Given 1->2->3->4->5->NULL, m = 2 and n = 4, return 1->4->3->2->5->NULL. 阅读全文
posted @ 2017-08-06 16:21 simple_wxl 阅读(225) 评论(0) 推荐(0) 编辑
摘要:LCS 最长公共子序列 最长公共子串(连续) 最短编辑距离 模式串匹配 题型四:乘积最大子序列 0-1背包:(就地滚动和01滚动) 网易2017实习生笔试题: 一种双核CPU的两个核能够同时的处理任务,现在有n个已知数据量的任务需要交给CPU处理,假设已知CPU的每个核1秒可以处理1kb,每个核同时 阅读全文
posted @ 2017-08-06 10:22 simple_wxl 阅读(256) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2017-08-05 23:09 simple_wxl 阅读(62) 评论(0) 推荐(0) 编辑
摘要:lightGBM与XGBoost的区别:(来源于:http://baijiahao.baidu.com/s?id=1588002707760744935&wfr=spider&for=pc) 切分算法(切分点的选取) 占用的内存更低,只保存特征离散化后的值,而这个值一般用8位整型存储就足够了,内存消 阅读全文
posted @ 2017-08-04 16:57 simple_wxl 阅读(2282) 评论(0) 推荐(0) 编辑
摘要:由于异常数据的两个特征(少且不同: few and different) iTree的构成过程如下: l 随机选择一个属性Attr; l 随机选择该属性的一个值Value; l 根据Attr对每条记录进行分类,把Attr小于Value的记录放在左女儿,把大于等于Value的记录放在右孩子; l 然后 阅读全文
posted @ 2017-08-04 10:57 simple_wxl 阅读(596) 评论(0) 推荐(0) 编辑
摘要:来源于知乎: 1. LibLinear是线性核,LibSVM可以扩展到非线性核(当也能用线性核,但同样在线性核条件下会比LibLinear慢很多)。2. 多分类:LibLinear是one vs all策略,LibSVM是one vs one策略,后者的模型会大很多。3. 模型的文件格式不兼容。<! 阅读全文
posted @ 2017-08-03 12:27 simple_wxl 阅读(689) 评论(0) 推荐(0) 编辑
摘要:来源知乎 计算模型:hadoop-MapReduce,Spark-DAG(有向无环图)评注:经常有人说Spark就是内存版的MapReduce,实际上不是的。Spark使用的DAG计算模型可以有效的减少Map和Reduce人物之间传递的数据,尤其适合反复迭代的机器学习场景。而Hadoop则更擅长批处 阅读全文
posted @ 2017-08-02 20:24 simple_wxl 阅读(314) 评论(0) 推荐(0) 编辑
摘要:maxout的拟合能力是非常强的,它可以拟合任意的的凸函数。最直观的解释就是任意的凸函数都可以由分段线性函数以任意精度拟合(学过高等数学应该能明白),而maxout又是取k个隐隐含层节点的最大值,这些”隐隐含层"节点也是线性的,所以在不同的取值范围下,最大值也可以看做是分段线性的(分段的个数与k值有 阅读全文
posted @ 2017-08-02 17:30 simple_wxl 阅读(835) 评论(0) 推荐(0) 编辑
摘要:稀疏解的作用:内存和时间啊 实际的互联网广告应用需要的是快速地进行model的更新。为了保证快速的更新,训练样本是一条一条地过来的,每来一个样本,model的参数对这个样本进行一次迭代,从而保证了model的及时更新,这种方法叫做OGD(Online gradient descent)。 传统Bat 阅读全文
posted @ 2017-08-02 16:49 simple_wxl 阅读(932) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示