上一页 1 2 3 4 5 6 ··· 37 下一页
摘要: https://zhuanlan.zhihu.com/p/441823563 https://zhuanlan.zhihu.com/p/650410731 阅读全文
posted @ 2024-05-28 10:59 xd_xumaomao 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 背景 这是一篇阿里发表的permutation-wise优化的重排论文,阿里在这篇论文里提出了PRS重排框架,其由两个步骤组成: 1. PMatch:采用beam search算法生成候选序列 2. PRank:设计了permutation-wise model DPWN 计算 permutatio 阅读全文
posted @ 2024-05-27 20:56 xd_xumaomao 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 和DLCM做法类似,都是使用序列模型对rank后的结构做rerank,不同点是PRM使用了transform encoder来建模,并且使用了用户预训练向量和位置向量 最后一层使用了softmax来计算每个item被点击的概率(论文提到使用click作为label,也就是所存在多个label为1的情 阅读全文
posted @ 2024-05-27 16:52 xd_xumaomao 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 论文名:Learning a Deep Listwise Context Model for Ranking Refinement 背景 在搜索场景下,给定一个查询q,q和d特征的向量表示x(q,d),rank阶段的loss可以表示为: 其中:Q是query的集合,D是doc集合,f是rank模型函 阅读全文
posted @ 2024-05-26 11:13 xd_xumaomao 阅读(192) 评论(0) 推荐(0) 编辑
摘要: 论文地址:Globally Optimized Mutual Influence Aware Ranking in E-Commerce Search 背景 传统的排序算法基本都是point-wise的算法,没有考虑到一起展示的其它商品对当前商品的影响。但是在电商场景下,如果一个商品和它一起展示的同 阅读全文
posted @ 2024-05-23 16:13 xd_xumaomao 阅读(173) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/687478684 https://www.zhihu.com/question/646766849 阅读全文
posted @ 2024-05-17 16:37 xd_xumaomao 阅读(129) 评论(0) 推荐(0) 编辑
摘要: 背景 目前最常见的召回可以分两类: 1. 以item cf为代表的i2i召回 2. 以双塔模型为代表的u2i召回 下面是这两种召回的优缺点: 总结来说就是i2i不好加入side info信息,u2i不好逐个行为粒度的表示用户兴趣,pdn算法正结合两种方法的优点 模型结构 pdn的模型结构如上图所示, 阅读全文
posted @ 2024-05-15 16:45 xd_xumaomao 阅读(341) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/weixin_46838716/article/details/126138597 阅读全文
posted @ 2024-05-14 15:26 xd_xumaomao 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 1. 模型训练完后可以得到item embedding,用item embedding构建HNSW索引 2. serving时,对每层计算topk item 参考资料 https://zhuanlan.zhihu.com/p/443113850 https://arxiv.org/pdf/2202. 阅读全文
posted @ 2024-05-13 20:02 xd_xumaomao 阅读(81) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/266023273 阅读全文
posted @ 2024-05-11 16:39 xd_xumaomao 阅读(5) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 37 下一页