05 2019 档案

摘要:import numpy as np def softmax(x): """ 对输入x的每一行计算softmax。 该函数对于输入是向量(将向量视为单独的行)或者矩阵(M x N)均适用。 代码利用softmax函数的性质: softmax(x) = softmax(x + c) 参数: x -- 一个N维向量,或者M x N维nu... 阅读全文
posted @ 2019-05-29 16:09 合唱团abc 阅读(1130) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/37290775 https://github.com/NELSONZHAO/zhihu/blob/master/mt_attention_birnn/mt_attention_birnn.ipynb https://keras.io/zh/ 阅读全文
posted @ 2019-05-28 17:22 合唱团abc 阅读(1122) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/26306795 https://arxiv.org/pdf/1411.2738.pdf https://zhuanlan.zhihu.com/p/53194407 https://zhuanlan.zhihu.com/p/58805184 阅读全文
posted @ 2019-05-09 17:48 合唱团abc 阅读(2553) 评论(0) 推荐(0) 编辑
摘要:https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/45530.pdf https://zhuanlan.zhihu.com/p/25343518 https://zhuanlan.zhihu 阅读全文
posted @ 2019-05-08 16:22 合唱团abc 阅读(602) 评论(0) 推荐(0) 编辑
摘要:Encoder-Decoder框架: 目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。 抽象的文本处理领域的Encoder-Decoder框架: 文本处理领域的Encoder-Decoder框架可以这么 阅读全文
posted @ 2019-05-07 16:14 合唱团abc 阅读(648) 评论(0) 推荐(0) 编辑
摘要:参考: https://zhuanlan.zhihu.com/p/51623339 https://arxiv.org/abs/1706.06978 注意力机制顾名思义,就是模型在预测的时候,对用户不同行为的注意力是不一样的,“相关”的行为历史看重一些,“不相关”的历史甚至可以忽略。那么这样的思想反 阅读全文
posted @ 2019-05-07 10:16 合唱团abc 阅读(1996) 评论(0) 推荐(0) 编辑
摘要:参考:https://zhuanlan.zhihu.com/p/31529643 在CTR预估中,负样本采样是一种常见的特征工程方法。一般CTR预估的原始正负样本比可能达到1:1000~1:10000左右,而要获取好的效果,一般需要采样到1:5~1:15之间(VC维可推导)。 我们详细分析采样对于p 阅读全文
posted @ 2019-05-06 15:18 合唱团abc 阅读(4875) 评论(0) 推荐(0) 编辑
摘要:deep&wide为啥work,如何优化特征;详述attention,attention在ctr预估中如何使用,din为啥work?详述transformer,如何应用于ctr预估;item2vec为啥work,如何优化?dssm的原理,如何应用推荐系统中?推荐系统的流量分层如何优化?强化学习如何用 阅读全文
posted @ 2019-05-06 14:54 合唱团abc 阅读(154) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示