摘要: 承接上文: 链接:多目标优化概论及基础算法ESMM与MMOE对比 这次这篇文章写点实用的。可以当做推荐算法工程师面试的考前突击,也可以当做面试官的面试题库。ESSM和MMOE都是最基本的算法,相当于多目标优化的入门级的读物。越经典越需要细嚼,温故而知新嘛。 这些题目和答案都是我自己在看论文过程中自我 阅读全文
posted @ 2020-12-10 08:01 曾冠奇 阅读(4109) 评论(0) 推荐(0) 编辑
摘要: 多目标优化现在成为了排序算法的主流方式。之所以有这个算法方向其实还是业务的需求驱动的,拿广告算法来说,主体逻辑是平台业务的目标是提升点击挣广告费,但广告主希望花出去的广告费能带来成交量。次逻辑是新广告主希望他买了广告就有成单的机会,不要冷启动买了广告也没有啥流量;对平台而言,(抛开反作弊刷单)希望提升平台吸引力,能让新广告主看到希望,也能让老买家持续爆单。 阅读全文
posted @ 2020-12-10 07:58 曾冠奇 阅读(1717) 评论(0) 推荐(1) 编辑
摘要: 论文:Progressive Layered Extraction (PLE): A Novel Multi-TaskLearning (MTL) Model for Personalized Recommendations 会议:RecSys2020最佳长论文奖 这篇文章其实就是MMOE的改进版。解决了一个问题,做了两件事情。 一个问题:任务不相关时,多个专家网络联结在一起容易导致多个任务此消彼长现象(Seesaw Phenomenon),例如优化CTR和GMV两个任务,结果GMV涨了,CTR跌了。MMOE对不相关任务的优化效果比ESSM强不少,但还是不够强,PLE就让他更强了。多个目标可以同时增长。比帕累托最优化这种方法训练model方便多了。这个我觉得是得最佳论文奖的主要看点。 两件事情:一个是提出了一个改进的网络结构版本,一个是提出了一种多loss融合训练的方法。后面细讲。 阅读全文
posted @ 2020-12-10 07:55 曾冠奇 阅读(1159) 评论(0) 推荐(0) 编辑
摘要: 当然,这些都是业务上的痛点。解决这些痛点,技术上的挑战有以下方面: 1) 客单价是不能预测的。因为买家今天买鞋子,明天买包包,后天买手机,客单价跨度大。 2) 有的人100减10还是减5,这个没有监督信号,根本无从学起。 3) 怎么样发个靠谱的优惠券,能刺激消费,是门玄学。不知怎么建模。让买100块钱的买家花200块? 阅读全文
posted @ 2020-12-10 07:51 曾冠奇 阅读(820) 评论(0) 推荐(0) 编辑