摘要: http://xudongyang.coding.me/linucb/ 阅读全文
posted @ 2018-07-23 17:18 Akane 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 累计求和公式 =sum(column$x:columnx) x为数据起始的行数标识 ttest =ttest(column1, column2, 2, 1) 得到p值 阅读全文
posted @ 2018-07-05 10:56 Akane 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 大体思想和RNN encoder-decoder是一样的,只是用来LSTM来实现。 paper提到三个important point: 1)encoder和decoder的LSTM是两个不同的模型 2)deep LSTM表现比shallow好,选用了4层的LSTM 3)实践中发现将输入句子rever 阅读全文
posted @ 2017-12-23 16:37 Akane 阅读(1807) 评论(0) 推荐(0) 编辑
摘要: 针对机器翻译,提出 RNN encoder-decoder. encoder与decoder是两个RNN,它们放在一起进行参数学习,最大化条件似然函数。 网络结构: 注意输入语句与输出语句长度不一定相同。 在encoder端,t时刻的隐藏状态h表示为 t-1时刻的h 以及t时刻的输入x的函数,直到输 阅读全文
posted @ 2017-12-23 16:36 Akane 阅读(2412) 评论(0) 推荐(0) 编辑
摘要: 基本思路:利用用户和商品的评论构建CNN预测评分。 网络结构: user review网络与 item review网络结构一致,仅就前者进行说明 从user review text到 look-up layer: 首先需要pre-train一个word embedding的词表,对某个用户,将其对 阅读全文
posted @ 2017-12-23 16:35 Akane 阅读(1456) 评论(0) 推荐(0) 编辑
摘要: 针对交叉(高阶)特征学习提出的DeepFM是一个end-to-end模型,不需要像wide&deep那样在wide端人工构造特征。 网络结构: sparse features的构造:类别型特征one-hot,连续型特征数值表示,或者分段离散后one-hot FM与NN分别输出预测y后,对两个结果进行 阅读全文
posted @ 2017-12-23 16:34 Akane 阅读(2477) 评论(0) 推荐(0) 编辑
摘要: 本文提出的W&D是针对rank环节的模型。 网络结构: 本文提出的W&D是针对rank环节的模型。 网络结构: wide是简单的线性模型,但是可以预先对特征做各种变换、交叉等来增加wide模型的非线性性。 deep是一个FNN,对高维稀疏类别特征采取embedding降维,embedding的结果是 阅读全文
posted @ 2017-12-23 16:32 Akane 阅读(1035) 评论(0) 推荐(0) 编辑
摘要: 将word2vec思想拓展到序列item的2vec方法并运用到推荐系统中,实质上可以认为是一种cf 在word2vec中,doc中的word是具有序列关系的,优化目标类似在max对数似然函数 应用在item2vec上,可以有两种看待方式: (1)如果item是强时序关系的,那么对某一次序列中的ite 阅读全文
posted @ 2017-12-23 16:29 Akane 阅读(2980) 评论(0) 推荐(0) 编辑
摘要: 从各方资料总结了一下大体思路,论文中很多细节还有待细读。 1.引言 youtube视频推荐的三大挑战: (1)规模大:数以亿计 (2)新鲜度:每秒就有很多新视频上传,要考虑用户的实时行为和新视频的推荐,平衡好新视频和好视频。(exploration and exploitation) (3)噪音:用 阅读全文
posted @ 2017-12-23 16:28 Akane 阅读(1637) 评论(0) 推荐(0) 编辑
摘要: 重点:认为不同的广告会触发用户的兴趣点不同导致user embedding随之改变。 DIN网络结构如下图右边 DIN的出发点:认为不同的广告会触发用户的兴趣点不同导致user embedding随之改变。 认为用户embedding向量 是 推荐出来的ad向量的函数,并且ad向量可以通过与历史行为 阅读全文
posted @ 2017-12-23 16:25 Akane 阅读(1003) 评论(0) 推荐(0) 编辑