摘要: DeepFM主要解决了Wide & Deep的以下几个痛点: wide部分特征自动交叉。Wide & Deep中的wide部分需要手工做特征工程,DeepFM向wide部分引入FM模块,使wide部分能够自动组合二阶交叉特征,可以实现端到端的训练。 算法 如图,整个网络可以看作三个部分:一阶部分+二 阅读全文
posted @ 2021-06-30 17:43 tmpUser 阅读(139) 评论(0) 推荐(0) 编辑
摘要: Wide & Deep主要解决了FM的以下几个痛点: 强化记忆能力。FM这类embedding类模型拥有强大的泛化能力,在embedding的过程中传入了大量的全局信息,对于一些很少出现甚至没有出现过的特征组合,也能计算出合理的特征组合权重。但是,当共现矩阵过于稀疏时,模型会过分泛化,推荐出很多相关 阅读全文
posted @ 2021-06-30 16:32 tmpUser 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 特征域感知因子分解机(Field-aware Factorization Machines,FFM)主要解决了FM的以下几个痛点: 更准确的特征embedding表达。FM中,每个特征只由一个embedding向量表达,这样虽然能增强模型的泛化性能,但是也大大削弱了模型的记忆能力。FFM在POLY_ 阅读全文
posted @ 2021-06-30 14:51 tmpUser 阅读(414) 评论(0) 推荐(0) 编辑
摘要: 因子分解机(Factorization Machines,FM)主要解决了LR的以下几个痛点: 实现自动特征交叉。LR只能只能手工设计特征之间的交叉,依赖大量人力与业务知识,并且无法挖掘业务构建特征的盲点; 在稀疏特征上的效果更好。对LR进行暴力二阶特征交叉也能实现特征自动交叉的效果(如POLY_v 阅读全文
posted @ 2021-06-30 14:13 tmpUser 阅读(312) 评论(1) 推荐(1) 编辑
摘要: 逻辑回归(Logistic Regression,LR)在推荐系统发展历史中占非常重要的地位。其优势主要体现在三个方面: 数学含义的支撑:LR是一个广义线性模型(可以简单理解为加了激活函数的线性模型),其假设为因变量服从伯努利分布,而CTR事件可以类比为掷偏心硬币的问题,所以使用LR作为CTR预估模 阅读全文
posted @ 2021-06-30 12:08 tmpUser 阅读(1108) 评论(3) 推荐(0) 编辑