How to Learn Item Representation for Cold-Start Multimedia Recommendation

Du X., Wang X., He X., Li Z., Tang J. and Chua T. How to learn item representation for cold-start multimedia recommendation? MM, 2020.

作者以往的多媒体推荐对于 cold items 在训练阶段没有足够的重视, 提出细分的训练目标加以纠正.

符号说明

  • p, user embeddings;
  • q, item embeddings;
  • ei, item collaborative (ID) embedding;
  • ci, item content embedding

Motivation

  • 在多媒体推荐中, 我们常常用

    qi=ρ(ei,ci)

    为 item 的 embedding, 其通过函数 ρ 将 collaborative/content embeddings 融合在一起 (比如通过拼接的方式).

  • 在测试的时候, 对于那些冷启动的 items, 常常使用

    qi=ρ(0,ci)

    来代替.

  • 但是, 由于训练中并没有实际上接触过 ρ(0,ci) 这种反事实的处理方式, 所以实际上, 可能会导致 train/test 的一个 gap.

  • 如上图所示:

    • q1 是 non-cold item 但是用户 p 并不喜欢;
    • q2 是 non-cold item 且用户 p 喜欢;
    • q3 是 cold item 且用户 p 喜欢.
  • 由于上述的 gap 的存在, 导致简单的设定 collaborative embedding 为 0 并不那么可靠. 我们需要在训练中让模型意识这一点.

Multi-Task Pairwise Ranking (MTPR)

  • 定义

    qiN=ρ(ei,ci),qiC=ρ(0,ci),

    分别为 Normal RepresentaionCounterfactual Representation.

  • 对于用户 pu, 对于正负样本 i,j, 我们可以得到四种情况下的预测:

    y^uiN=ϕ(pu,qiN),y^uiC=ϕ(pu,qiC),y^ujN=ϕ(pu,qjN),y^ujC=ϕ(pu,qjC).

  • 此时, 应用 BPR, 得到四种损失:

    LNN(u,i,j)=logσ(y^uiNy^ujN),LCC(u,i,j)=logσ(y^uiCy^ujC),LNC(u,i,j)=logσ(y^uiNy^ujC),LCN(u,i,j)=logσ(y^uiCy^ujN).

  • 可以理解:

    • NN: 实际上就是最普通的情况, 这种实际上主要针对的是 non-cold items 的优化;
    • CC: 实际上针对的是所有的 items 的优化;
    • NC/CN: 实际上在训练的过程中, 将 cold/non-cold items 的 gap 抹去了.
  • 最后 MTPR 就是这四个损失的加和:

    LMTPR=(u,i,j)D{LNN+LCC+LNC+LCN}.

  • 如上图所示, 作者展示通过 MTPR 训练后的 t-sne 的可视化情况, 此时 cold items 本身成簇, 同时又和 non-cold items 混合在一起.

代码

[official]

posted @   馒头and花卷  阅读(34)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2023-05-11 Towards Deeper Graph Neural Networks
2022-05-11 Data Poisoning Attacks on Factorization-Based Collaborative Filtering
2019-05-11 matplotlib 进阶之Legend guide
点击右上角即可分享
微信分享提示