DualGNN: Dual Graph Neural Network for Multimedia Recommendation

Wang Q., Wei Y., Yin J., Wu J., Song X. and Nie L. DualGNN: Dual graph neural network for multimedia recommendation. IEEE Transactions on Multimedia, 2023.

多模态 + user co-occureence graph -> recommendation.

文章中提到的 modality-missing 问题挺好的, 但是我并没有看到有什么特别的设计是解决这个问题的.

符号说明

  • U, users, |U|=N;
  • I, micor-videos, |I|=M;
  • G=(V,E), interaction graph, V=UI;
  • mM={v,a,t}, modality, v: visual, a: acoustic, t: textual;
  • um(0), 随机初始化的 user embedding for modality m;
  • im(0), modality features.

DualGCN

  • 首先, 通过 user-item interaction graph, 对 user/item 的信息进行初步的转换, 这部分对于每个模态是独立的:

    um(l+1)=iNu1|Nu||Ni|im(l),im(l+1)=iNu1|Nu||Ni|im(l),

    然后, 对各层求和:

    um=l=0Lum(l),im=l=0Lim(l).

  • 然后是, 多模态信息的一个融合, 用于得到用户的一个表征, 作者给了三种方案:

    1. Attentively concatenation construction:

      umul=Wmhu+bm,hu=αu,vuvαu,auaαu,tut.

    2. Attentively sum construction:

      umul=αu,vuv+αu,aua+αu,tut.

    3. Attentively maximum construction:

      umul=max(αu,vuv,αu,aua,αu,tut).

  • 接着 umul 还要通过 user-user graph 来进行进一步的转换. 构造 co-occurrence graph, 对于每个 user, 作者取它的 top-K 个 frequent users 作为邻居, 便的权重赋为 1, 其它为 0. 接下来通过下列二者之一的方式进行转换:

    1. Mean aggregation:

      umul(l+1)=umul(l)+uNu,c1|Nu,c|umul(l),

      其中 Nu,c 表示 user u 的 top-K 邻居.
    2. Softmax weighted aggregation:

      umul(l+1)=umul(l)+uNu,cexp(Cu,u)uNu,cexp(Cu,u)umul(l),

      其中 Cu,u 表示 users u,u 的 co-occurrence times.
  • 最后得到最终 user/item 的表示:

    u=umul(L),i=iv+ia+it.

    然后 score 的预测通过内积得到

    yu,i=uTi.

  • 训练通过 BPR 损失.

代码

[official]

posted @   馒头and花卷  阅读(126)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2020-03-23 图片 Augmentation整理
点击右上角即可分享
微信分享提示