随笔分类 -  算法

ACM,数据结构,面试笔试
只有注册用户登录后才能阅读该文。
posted @ 2018-03-20 20:18 Django's blog 编辑
摘要:http://blog.csdn.net/wangyibo0201/article/details/51705966 局部异常因子算法-Local Outlier Factor(LOF) 在数据挖掘方面,经常需要在做特征工程和模型训练之前对数据进行清洗,剔除无效数据和异常数据。异常检测也是数据挖掘的 阅读全文
posted @ 2017-06-06 12:03 Django's blog 阅读(1809) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/orbit/article/details/7323090 平面区域填充算法是计算机图形学领域的一个很重要的算法,区域填充即给出一个区域的边界(也可以是没有边界,只是给出指定颜色),要求将边界范围内的所有象素单元都修改成指定的颜色(也可能是图案填充)。区域填 阅读全文
posted @ 2017-06-06 12:02 Django's blog 阅读(4485) 评论(0) 推荐(0) 编辑
摘要:https://mp.weixin.qq.com/s/P-a-n1PsBL5hLZWVxyuLQw 「论文访谈间」是由 PaperWeekly 和中国中文信息学会青工委联合发起的论文报道栏目,旨在让国内优质论文得到更多关注和认可。 这是第 6 期「论文访谈间」 论文作者 | 陈新驰、施展、邱锡鹏、黄 阅读全文
posted @ 2017-06-05 19:11 Django's blog 阅读(326) 评论(0) 推荐(0) 编辑
摘要:http://www.letiantian.me/2015-03-31-bayes-classifier-for-text/ 2015-03-31 本文介绍如何使用scikit-learn工具包下的贝叶斯工具进行文本分类。 生成数据集 数据集是有8个分类的文本数据集,使用了结巴分词对每个文本分词,每 阅读全文
posted @ 2016-12-22 14:56 Django's blog 阅读(786) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/w5310335/article/details/48972587 使用GBDT选取特征 2015-03-31 本文介绍如何使用scikit-learn的GBDT工具进行特征选取。 为什麽选取特征 有些特征意义不大,删除后不影响效果,甚至可能提升效果。 关于 阅读全文
posted @ 2016-12-22 14:55 Django's blog 阅读(1188) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/w5310335/article/details/48972587 使用GBDT选取特征 2015-03-31 本文介绍如何使用scikit-learn的GBDT工具进行特征选取。 为什麽选取特征 有些特征意义不大,删除后不影响效果,甚至可能提升效果。 关于 阅读全文
posted @ 2016-12-22 14:52 Django's blog 阅读(694) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/superzrx/article/details/47073847 安装 SCIKIT-LEARN是一个基于Python/numpy/scipy的机器学习库 windows下最简单的安装方式是使用winpython进行安装 WinPython地址 GBDT使 阅读全文
posted @ 2016-12-22 14:38 Django's blog 阅读(1495) 评论(0) 推荐(0) 编辑
摘要:http://www.52ml.net/1917.html 主题模型LDA(latent dirichlet allocation)的应用还是很广泛的,之前我自己在检索、图像分类、文本分类、用户评论的主题词抽取等都用过,做feature、降维等。例如可以用主题维度来表示原来的字典维度,大大的降低了文 阅读全文
posted @ 2016-12-22 12:07 Django's blog 阅读(796) 评论(0) 推荐(0) 编辑
摘要:http://weblab.com.cityu.edu.hk/blog/luheng/2011/06/24/%E7%94%A8gibbslda%E5%81%9Atopic-modeling/#comment-87 Topic Modeling是一种文本挖掘的方法。将文本视作一个由许多许多词组成的数据 阅读全文
posted @ 2016-12-22 12:02 Django's blog 阅读(784) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/xmdxcsj/article/details/48790317 Crf模型 1. 定义 一阶(只考虑y前面的一个)线性条件随机场: 相比于最大熵模型的输入x和输出y,crf模型的输入输出都是序列化以后的矢量,是对最大熵模型的序列扩展。 相比于最大熵模型的另 阅读全文
posted @ 2016-12-21 15:22 Django's blog 阅读(1385) 评论(0) 推荐(0) 编辑
摘要:http://blog.csdn.net/marising/article/details/5769653 前段时间写了中文分词的一些记录里面提到了CRF的分词方法,近段时间又研究了一下,特把方法写下来,以备忘,另外,李沫南同学优化过CRF++,见:http://www.coreseek.cn/op 阅读全文
posted @ 2016-12-21 14:33 Django's blog 阅读(833) 评论(0) 推荐(0) 编辑
摘要:作者:许铁-巡洋舰科技链接:https://www.zhihu.com/question/37082800/answer/126430702来源:知乎著作权归作者所有,转载请联系作者获得授权。 作者:许铁-巡洋舰科技链接:循环神经网络RNN打开手册 - 混沌巡洋舰 - 知乎专栏来源:知乎著作权归作者 阅读全文
posted @ 2016-12-20 14:29 Django's blog 阅读(2360) 评论(0) 推荐(0) 编辑
摘要:Word2Vec 作者、脸书科学家 Mikolov 文本分类新作 fastText:方法简单,号称并不需要深度学习那样几小时或者几天的训练时间,在普通 CPU 上最快几十秒就可以训练模型,得到不错的结果。 1. fastText 原理 fastText 方法包含三部分:模型架构、层次 Softmax 阅读全文
posted @ 2016-12-20 14:23 Django's blog 阅读(1666) 评论(0) 推荐(0) 编辑
摘要:转:http://www.cnblogs.com/pinard/p/6143927.html 在梯度提升树(GBDT)原理小结中,我们对GBDT的原理做了总结,本文我们就从scikit-learn里GBDT的类库使用方法作一个总结,主要会关注调参中的一些要点。 1. scikit-learn GBD 阅读全文
posted @ 2016-12-20 10:32 Django's blog 阅读(60472) 评论(5) 推荐(2) 编辑
摘要:利用GBDT模型构造新特征具体方法 数据挖掘入门与实战 公众号: datadw 实际问题中,可直接用于机器学**模型的特征往往并不多。能否从“混乱”的原始log中挖掘到有用的特征,将会决定机器学**模型效果的好坏。引用下面一句流行的话: 特征决定了所有算法效果的上限,而不同的算法只是离这个上限的距离 阅读全文
posted @ 2016-12-20 10:22 Django's blog 阅读(1253) 评论(0) 推荐(0) 编辑
摘要:在网上看到一篇对从代码层面理解gbdt比较好的文章,转载记录一下: GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做 阅读全文
posted @ 2016-12-20 10:05 Django's blog 阅读(547) 评论(0) 推荐(0) 编辑
摘要:1.FM背景 在计算广告中,CTR预估(click-through rate)是非常重要的一个环节,因为DSP后面的出价要依赖于CTR预估的结果。在前面的相关博文中,我们已经提到了CTR中相关特征工程的做法。对于特征组合来说,业界现在通用的做法主要有两大类:FM系列与Tree系列。今天,我们就来讲讲 阅读全文
posted @ 2016-12-20 10:01 Django's blog 阅读(1590) 评论(0) 推荐(0) 编辑
摘要:转载请注明本文链接:http://www.cnblogs.com/EE-NovRain/p/3810737.html 现在做在线学习和CTR常常会用到逻辑回归( Logistic Regression),而传统的批量(batch)算法无法有效地处理超大规模的数据集和数据流,google先后三年时间( 阅读全文
posted @ 2016-12-20 10:00 Django's blog 阅读(383) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示