DeepFM: A Factorization-Machine based Neural Network for CTR Prediction (2017)论文要点

论文链接: https://arxiv.org/pdf/1703.04247.pdf

 

FM原理参考:

Factorization Machines with libFM 论文阅读  https://www.cnblogs.com/yaoyaohust/p/10225055.html

GBDT,FM,FFM推导  https://www.cnblogs.com/yaoyaohust/p/7865379.html

 

类别型特征one-hot编码,连续型特征直接表示或者离散化后one-hot编码。

核心思想就是拿FM模型输出的交叉项权重当做embedding使用,FM和Deep分量共用这个embedding。

因此不用预训练(因为整体训练),不用特征工程(因为FM),同时有低阶和高阶交互项(因为FM和NN)。

 

评估:AUC,LogLoss(cross entropy)

训练快速

激活函数:relu、tanh比sigmoid更常用;而且relu比tanh好(因为减少稀疏性)

Dropout: 0.6-0.9

Neurons per layer: 200-400

最优Hidden layer: 3

network shape: constant(等宽,“中规中矩”)

 

posted on 2019-07-30 20:32  冰山上的博客  阅读(511)  评论(0编辑  收藏  举报