摘要: 资料 https://zhuanlan.zhihu.com/p/50116885 https://zhuanlan.zhihu.com/p/30976469 https://levinehuang.github.io/deep-learning/ai/2018/11/20/Large_Distrib 阅读全文
posted @ 2021-08-31 16:11 nuo-o 阅读(41) 评论(0) 推荐(0) 编辑
摘要: http://www.c-s-a.org.cn/html/2018/5/6356.html 1. 新闻时效性模型 a. 文献老化率模型: Ke^(-at) k - 与 category 有关 a - 文献的老化率 t - 被引用频率 b. 新闻的时效性模型 S(tn, t) = e^[-a(t - 阅读全文
posted @ 2021-08-24 17:12 nuo-o 阅读(204) 评论(0) 推荐(0) 编辑
摘要: gongoi 工作内容 需求和目标的沟通 产品负责整个产品的发展方向,定义什么是“好”。 我理解在我们 app 里面需要定义,什么是该推送的 push。即使点击率高,有的也不适合推送。 最近我们猫头鹰 app 发送了一些政治敏感类文章:Microsoft Exchange email hack wa 阅读全文
posted @ 2021-07-20 11:02 nuo-o 阅读(120) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/387378387 负采样有很多种方法。线上用的是随机降采样 10% 的负例。 分类 规则式 随机(baseline) 优点:效率,避免引入新的偏差。广泛使用。 基于流行度 越热门的物品,越容易做负例。 优点:提高采样质量,用户不喜欢热门商品 阅读全文
posted @ 2021-07-08 18:54 nuo-o 阅读(679) 评论(0) 推荐(0) 编辑
摘要: 结构 从 expert 角度 1. experts 其实是一个个小兵,将不同的输入数据映射到不同的空间,只 fit 这一部分的 "local" 数据。 reference: https://www.cs.toronto.edu/~hinton/csc321/notes/lec15.pdf 所以我理解 阅读全文
posted @ 2021-07-07 17:10 nuo-o 阅读(323) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/150347888 阅读全文
posted @ 2021-07-06 19:33 nuo-o 阅读(362) 评论(0) 推荐(0) 编辑
摘要: baseline hourly train; 观察到 show 没有观察到 click,则按照负样本计算; 观察到 show & click,则按照正样本计算; 正样本回溯4个小时的负样本进行 join; 已经按照负样本进行训练的正样本,按照2个正样本进行补充。 优点:实时性高。但不准确。 缺点:不 阅读全文
posted @ 2021-06-24 14:22 nuo-o 阅读(226) 评论(0) 推荐(0) 编辑
摘要: 《One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction 》 2018年阿里巴巴应用在广告系统上的推荐架构。同时预估19个domain的ctr 任务。 论文大概内容翻译 Ab 阅读全文
posted @ 2021-06-18 11:24 nuo-o 阅读(621) 评论(0) 推荐(0) 编辑
摘要: 参考:https://zhuanlan.zhihu.com/p/89566632 http://josh-tobin.com/assets/pdf/troubleshooting-deep-neural-networks-01-19.pdf 做模型 90% 的时间在于 debug & tune。10 阅读全文
posted @ 2021-06-17 10:37 nuo-o 阅读(64) 评论(0) 推荐(0) 编辑
摘要: https://ai.51cto.com/art/202102/644214.htm 问题1:CTR 模型缺乏个性化 问题: 快手认为,DNN, DeepFM这一类简单的全连接深度模型,在全局用户的共建语义模式下缺乏个性化。 目标: 在网络参数上为不同用户学习一个独有的个性化偏差。 借鉴: LHUC 阅读全文
posted @ 2021-06-10 10:55 nuo-o 阅读(2315) 评论(0) 推荐(0) 编辑