05 2019 档案
摘要:import numpy as np def softmax(x): """ 对输入x的每一行计算softmax。 该函数对于输入是向量(将向量视为单独的行)或者矩阵(M x N)均适用。 代码利用softmax函数的性质: softmax(x) = softmax(x + c) 参数: x -- 一个N维向量,或者M x N维nu...
阅读全文
摘要:https://zhuanlan.zhihu.com/p/37290775 https://github.com/NELSONZHAO/zhihu/blob/master/mt_attention_birnn/mt_attention_birnn.ipynb https://keras.io/zh/
阅读全文
摘要:https://zhuanlan.zhihu.com/p/26306795 https://arxiv.org/pdf/1411.2738.pdf https://zhuanlan.zhihu.com/p/53194407 https://zhuanlan.zhihu.com/p/58805184
阅读全文
摘要:https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/45530.pdf https://zhuanlan.zhihu.com/p/25343518 https://zhuanlan.zhihu
阅读全文
摘要:Encoder-Decoder框架: 目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。 抽象的文本处理领域的Encoder-Decoder框架: 文本处理领域的Encoder-Decoder框架可以这么
阅读全文
摘要:参考: https://zhuanlan.zhihu.com/p/51623339 https://arxiv.org/abs/1706.06978 注意力机制顾名思义,就是模型在预测的时候,对用户不同行为的注意力是不一样的,“相关”的行为历史看重一些,“不相关”的历史甚至可以忽略。那么这样的思想反
阅读全文
摘要:参考:https://zhuanlan.zhihu.com/p/31529643 在CTR预估中,负样本采样是一种常见的特征工程方法。一般CTR预估的原始正负样本比可能达到1:1000~1:10000左右,而要获取好的效果,一般需要采样到1:5~1:15之间(VC维可推导)。 我们详细分析采样对于p
阅读全文
摘要:deep&wide为啥work,如何优化特征;详述attention,attention在ctr预估中如何使用,din为啥work?详述transformer,如何应用于ctr预估;item2vec为啥work,如何优化?dssm的原理,如何应用推荐系统中?推荐系统的流量分层如何优化?强化学习如何用
阅读全文