摘要: 最近在做CTR,刚好Google在KDD发了一篇文章,讲了他们的一些尝试,总结一下:先是一些公式的符号说明:一、优化算法CTR中经常用Logistic regression进行训练,一个常用的Loss Function为Online gradient descent(OGD)是一个常用的优化方法,但是在加上L1正则化后,这种方法不能产生有效的稀疏模型。相比之下 Regularized Dual Averaging (RDA)拥有更好的稀疏性,但是精度不如OGD好。FTRL-Proximal 方法可以同时得到稀疏性与精确性,不同于OGD的迭代步骤:其中$\eta_t$是一个非增的学习率FTRL- 阅读全文
posted @ 2013-08-04 01:14 罗刹剑客 阅读(8215) 评论(2) 推荐(1) 编辑