05 2024 档案
摘要:大概看一下模型结构,其实就是在模型里加了一些gate结构,左边EPNet输入场景信息输出不同场景下特征权重,并用场景信息调整特征权重,右边的PPNet几乎就是一个LHUC结构 参考资料 千人千模 | PEPNet: 2023快手多任务多场景建模
阅读全文
摘要:模型结构 模型主要包含场景抽取层和任务抽取层(上图A): 场景抽取层 场景抽取层主要包括了场景共享专家(Scenario-shared expert)模块、当前场景特有专家(Scenario-specific expert)模块以及场景感知注意力网络,通过这三部分的信息抽取,最终形成了场景层次的信息
阅读全文
摘要:待整理 参考资料 蒸馏技术在推荐模型中的应用 知识蒸馏在推荐系统的应用
阅读全文
摘要:1. 常用的损失函数 一般使用inbatch softmax,主要优点是方便,缺点是容易遭造成对热门item的打压,可以做纠偏,参考youtube论文《Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recommendati
阅读全文
摘要:TensorFlow简介之负采样 Candidate Sampling简介 求通俗易懂解释下nce loss?
阅读全文
摘要:https://zhuanlan.zhihu.com/p/441823563 https://zhuanlan.zhihu.com/p/650410731
阅读全文
摘要:背景 这是一篇阿里发表的permutation-wise优化的重排论文,阿里在这篇论文里提出了PRS重排框架,其由两个步骤组成: 1. PMatch:采用beam search算法生成候选序列 2. PRank:设计了permutation-wise model DPWN 计算 permutatio
阅读全文
摘要:和DLCM做法类似,都是使用序列模型对rank后的结构做rerank,不同点是PRM使用了transform encoder来建模,并且使用了用户预训练向量和位置向量 最后一层使用了softmax来计算每个item被点击的概率(论文提到使用click作为label,也就是所存在多个label为1的情
阅读全文
摘要:论文名:Learning a Deep Listwise Context Model for Ranking Refinement 背景 在搜索场景下,给定一个查询q,q和d特征的向量表示x(q,d),rank阶段的loss可以表示为: 其中:Q是query的集合,D是doc集合,f是rank模型函
阅读全文
摘要:论文地址:Globally Optimized Mutual Influence Aware Ranking in E-Commerce Search 背景 传统的排序算法基本都是point-wise的算法,没有考虑到一起展示的其它商品对当前商品的影响。但是在电商场景下,如果一个商品和它一起展示的同
阅读全文
摘要:https://zhuanlan.zhihu.com/p/687478684 https://www.zhihu.com/question/646766849
阅读全文
摘要:背景 目前最常见的召回可以分两类: 1. 以item cf为代表的i2i召回 2. 以双塔模型为代表的u2i召回 下面是这两种召回的优缺点: 总结来说就是i2i不好加入side info信息,u2i不好逐个行为粒度的表示用户兴趣,pdn算法正结合两种方法的优点 模型结构 pdn的模型结构如上图所示,
阅读全文
摘要:先回顾一下item cf相似度的计算方法: 可以看到每个用户的影响是一样的,这里存在一个问题,假设一个程序猿群体都经常购买格子衫和电子产品,显然不能说格子衫和电子产品是相似的,icf只考虑了物品相似度忽略了用户之间的相似度 在计算相似度时,我们更希望两个兴趣差别比较大的用户有更高的权重,兴趣比较相似
阅读全文
摘要:1. 模型训练完后可以得到item embedding,用item embedding构建HNSW索引 2. serving时,对每层计算topk item 参考资料 https://zhuanlan.zhihu.com/p/443113850 https://arxiv.org/pdf/2202.
阅读全文
摘要:https://zhuanlan.zhihu.com/p/266023273
阅读全文