摘要:
$a^{bc}$ or $a^{b^c}$ or ${a^b}^c$ double subscript $a_{bc}$ or $a_{b_c}$ or ${a_b}_c$ 属于 \in 阅读全文
摘要:
perform extensive experiments 阅读全文
摘要:
一、git相关 具体的问题就是不能执行git clone,其实就是Git的任何命令都不能执行,查阅了一番资料发现可能是 gnutls 包的问题,解决的办法就是安装 openssl instead of gnutls. 参考链接:https://github.com/paul-nelson-baker 阅读全文
摘要:
近期需要研究一些特征工程的工作,就打算把微软之前公布出来的特征都复现一遍,今天遇到的特征是 LMIR, 其实也就是language model for information retrieval的简写,下面简要记录下研究经过。 首先,该特征主要是三种smoothing方法,分别是:JM、DIR和AB 阅读全文
摘要:
1. ICML(International Conference on Machine Learning) 链接:https://en.wikipedia.org/wiki/International_Conference_on_Machine_Learning ACML(Asian Confere 阅读全文
摘要:
零零散散写了一些,主要是占个坑: AUC作为一个常用的评价指标,无论是作为最后模型效果评价还是前期的特征选择,都发挥着不可替代的作用,下面我们详细介绍下这个指标。 1.定义 2.实现 3.应用 阅读全文
摘要:
L2R最常用的包就是XGBoost 和LightGBM,xgboost因为其性能及快速处理能力,在机器学习比赛中成为常用的开源工具包, 2016年微软开源了旗下的lightgbm(插句题外话:微软的人真是够谦虚的,开源的包都是light前缀,公司更是micro),对标xgboost,在结果相差不大的 阅读全文
摘要:
连续特征自动离散化有多种评价角度,按照不同角度归纳如下图: refer: 1.https://blog.csdn.net/CalCuLuSearch/article/details/52751218 阅读全文
摘要:
一、总概 优化算法主要分为两大阵营:梯度下降学派和牛顿法学派。 这两者的区别[1]:比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯 阅读全文
摘要:
一、背景 l2r可以说是搜索推荐里面很常用的知识了,一直处于一知半解的地步,今天开个博客准备把这些零散的东西系统性整理好,一版就粗糙点了。 二、粗概 前段时间的项目主要和搜索引擎相关,记录下搜索引擎的主题思路,大致就是:召回 --> 粗排 > 精排。 一般情况下,召回和粗排会并在一起,例如LUCEN 阅读全文