摘要: $a^{bc}$ or $a^{b^c}$ or ${a^b}^c$ double subscript $a_{bc}$ or $a_{b_c}$ or ${a_b}_c$ 属于 \in 阅读全文
posted @ 2021-10-01 12:09 紫巅草 阅读(1653) 评论(0) 推荐(0) 编辑
摘要: perform extensive experiments 阅读全文
posted @ 2021-06-30 16:05 紫巅草 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 一、git相关 具体的问题就是不能执行git clone,其实就是Git的任何命令都不能执行,查阅了一番资料发现可能是 gnutls 包的问题,解决的办法就是安装 openssl instead of gnutls. 参考链接:https://github.com/paul-nelson-baker 阅读全文
posted @ 2021-06-30 15:30 紫巅草 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 近期需要研究一些特征工程的工作,就打算把微软之前公布出来的特征都复现一遍,今天遇到的特征是 LMIR, 其实也就是language model for information retrieval的简写,下面简要记录下研究经过。 首先,该特征主要是三种smoothing方法,分别是:JM、DIR和AB 阅读全文
posted @ 2018-10-31 11:01 紫巅草 阅读(820) 评论(1) 推荐(0) 编辑
摘要: 1. ICML(International Conference on Machine Learning) 链接:https://en.wikipedia.org/wiki/International_Conference_on_Machine_Learning ACML(Asian Confere 阅读全文
posted @ 2018-05-17 17:58 紫巅草 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 零零散散写了一些,主要是占个坑: AUC作为一个常用的评价指标,无论是作为最后模型效果评价还是前期的特征选择,都发挥着不可替代的作用,下面我们详细介绍下这个指标。 1.定义 2.实现 3.应用 阅读全文
posted @ 2018-04-10 15:14 紫巅草 阅读(1159) 评论(0) 推荐(0) 编辑
摘要: L2R最常用的包就是XGBoost 和LightGBM,xgboost因为其性能及快速处理能力,在机器学习比赛中成为常用的开源工具包, 2016年微软开源了旗下的lightgbm(插句题外话:微软的人真是够谦虚的,开源的包都是light前缀,公司更是micro),对标xgboost,在结果相差不大的 阅读全文
posted @ 2018-04-08 19:41 紫巅草 阅读(3102) 评论(5) 推荐(0) 编辑
摘要: 连续特征自动离散化有多种评价角度,按照不同角度归纳如下图: refer: 1.https://blog.csdn.net/CalCuLuSearch/article/details/52751218 阅读全文
posted @ 2018-03-26 17:32 紫巅草 阅读(290) 评论(0) 推荐(0) 编辑
摘要: 一、总概 优化算法主要分为两大阵营:梯度下降学派和牛顿法学派。 这两者的区别[1]:比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯 阅读全文
posted @ 2018-03-07 19:51 紫巅草 阅读(696) 评论(0) 推荐(0) 编辑
摘要: 一、背景 l2r可以说是搜索推荐里面很常用的知识了,一直处于一知半解的地步,今天开个博客准备把这些零散的东西系统性整理好,一版就粗糙点了。 二、粗概 前段时间的项目主要和搜索引擎相关,记录下搜索引擎的主题思路,大致就是:召回 --> 粗排 > 精排。 一般情况下,召回和粗排会并在一起,例如LUCEN 阅读全文
posted @ 2017-12-10 19:52 紫巅草 阅读(3367) 评论(0) 推荐(0) 编辑