摘要: 像CTR预估这种任务在推荐系统或者在线广告当中十分常见,但是这个问题也非常具有挑战性,比如所使用的输入特征都是离散并且高维的,有效的预测依赖于高阶组合特征(又称交叉特征)。因此,人们一直在努力寻找稀疏和高维原始特征的低维表示及其有意义的组合。 这篇论文提出了AutoInt来学习高阶特征的交叉表示。并 阅读全文
posted @ 2021-05-24 17:07 NoMornings 阅读(442) 评论(2) 推荐(0) 编辑
摘要: 这篇论文的摘要中写道: In this work, we improve FM by discriminating the importance of different feature interactions. 该论文通过区别不同特征交互的重要性来提升FM算法的性能。其主要的核心部分是通过神经网 阅读全文
posted @ 2021-04-22 16:27 NoMornings 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 这篇论文主要提出了一个网络,成为Multi-Factor Generative Adversarial Network,直接翻译过来的话就是多因子生成对抗网络。主要是期望能够探究影响推荐的其他因子(因素)到底起到了多大的作用。这里的因子指的是上下文的信息。说明:后文中判别器和鉴别器是相同的。 里面的 阅读全文
posted @ 2021-04-10 16:52 NoMornings 阅读(474) 评论(0) 推荐(0) 编辑
摘要: Word2Vec是谷歌团队提出的,让词向量在自然语言处理当中再度流行,并且推广到了广告、搜索、推荐等各个领域当中。Word2Vec顾名思义,就是一个生成对词的向量表达的模型。假设我们使用一组句子组成的语料库作为训练数据,其中一句长度为$T$的句子为$w_1,w_2,...,w_T$,假设每个词都与最 阅读全文
posted @ 2021-01-04 10:18 NoMornings 阅读(430) 评论(0) 推荐(0) 编辑
摘要: 做过深度学习的小伙伴,大家应该多多少少都听说过Embedding,这么火的Embedding到底是什么呢?这篇文章就用来介绍Embedding。另外,基于深度学习的推荐系统方法或者论文还没有结束,我打算穿插进行讲解,毕竟,深度学习出来的推荐框架的算法实在是太相像了,很难有大的不同。所以,这一篇就聊聊 阅读全文
posted @ 2020-12-21 21:44 NoMornings 阅读(443) 评论(0) 推荐(0) 编辑
摘要: 前言 这一篇文章我们来谈一下2017年新加坡国立大学提出的基于深度学习的协同过滤模型NeuralCF。我们在之前讲过矩阵分解技术,将协同过滤中的共现矩阵分解成用户向量矩阵以及物品向量矩阵。那么Embedding的思路也是一样的,只不过不是通过矩阵分解的形式,而是通过多层神经网络使用Embedding 阅读全文
posted @ 2020-12-18 17:19 NoMornings 阅读(512) 评论(2) 推荐(0) 编辑
摘要: 这一篇,我们将介绍微软BING AD团队提出的Deep Crossing模型,用来解决大规模特征组合问题的模型,这些特征可以是稠密的,也可以是稀疏的,从而避免了人工进行特征组合,并使用了当年提出的残差神经网络。这个模型也算是深度学习在推荐系统的完整应用了:完整的解决了特征工程、稀疏向量稠密化、多层神 阅读全文
posted @ 2020-12-17 15:33 NoMornings 阅读(324) 评论(0) 推荐(1) 编辑
摘要: 从这一篇开始,我们开始学习深度学习推荐模型,与传统的机器学习相比,深度学习模型的表达能力更强,并且更能够挖掘出数据中潜藏的模式。另外。深度学习模型结构也非常灵活,能够根据业务场景和数据结构进行调整。还是原来的样子,我会按照原理以及代码实现,再就是一些优缺点进行逐一介绍。 AutoRec AutoRe 阅读全文
posted @ 2020-12-14 20:00 NoMornings 阅读(451) 评论(0) 推荐(0) 编辑
摘要: 在之前介绍的几个模型中,存在这些问题: LR不能捕捉非线性,只能进行一次的回归预测 GBDT+LR虽然能够产生非线性特征组合,但是树模型不适用于超高维稀疏数据 FM利用二阶信息来产生变量之间的相关性,但是无法适应高阶组合特征,高阶组合容易爆炸 那么,下面介绍的LS-PLM模型一定程度上缓解了这个问题 阅读全文
posted @ 2020-12-10 19:27 NoMornings 阅读(713) 评论(0) 推荐(2) 编辑
摘要: 前一篇文章我们介绍了LR->FM->FFM的整个演化过程,我们也知道,效果最好的FFM,它的计算复杂度已经达到了令人发指的$n^2k$。其实就是这样,希望提高特征交叉的维度来弥补稀疏特征,不可避免的带来组合爆炸和计算复杂度过高的问题。这一篇,我们介绍一下Facebook提出的GBDT+LR的组合来解 阅读全文
posted @ 2020-12-09 19:12 NoMornings 阅读(222) 评论(0) 推荐(1) 编辑