DisenCDR: Learning Disentangled Representations for Cross-Domain Recommendation

Cao J., Lin X., Cong X., Ya J., Liu T. and Wang B. DisenCDR: learning disentangled representations for cross-domain recommendation. In ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2022.

本文针对的是跨域的学习, 希望解耦出 domain-specific 特征和共享特征. 思路倒是没有特别新, 但是这个操作感觉是个大工程啊.

符号说明

  • DX=(U,VX,EX), 域 X 所对应的图 (U,V) 是结点;
  • DY=(U,VY,EY), 域 Y 所对应的图 (U,V) 是结点;
  • AX{0,1}|U|×|VX|, X 邻接矩阵;
  • AY{0,1}|U|×|VY|, Y 邻接矩阵;

流程

  • Encoder:

    1. X 经过 encoder 得到 μX,σX, 然后

      ZuXN(μuX,[diag(σuX)]2),ZvXN(μvX,[diag(σvX)]2);

    2. Y 经过 encoder 得到 μY,σY, 然后

      ZuYN(μuY,[diag(σuY)]2),ZvYN(μvY,[diag(σvY)]2);

    3. X,Y 共同经过 encoder 得到 μ¯uX,μ¯uY,σ¯uX,σ¯uY, 然后

      μuS=λuμ¯X+(1λu)μ¯uY,σuS=λuσ¯X+(1λu)σ¯uY,ZuSN(μuS,[diag(σuS)]2),

      其中

      λui=NuiXNuiX+NuiY,

      NuiX 就是 ui 的一阶邻居的个数, 故上述操作就是一个平均而已;

  • Decoder:

    pθX(AX|ZuS,ZuX,ZvX),pθY(AY|ZuS,ZuY,ZvY).

注: Z^uS 是为了设计损失所用的, 这里就不提了.

优化目标

  1. 最小化 (ZuX,ZuS) 以及 (ZuY,ZuS) 的互信息:

    I(ZuX;ZuS),I(ZuY;ZuS).

    这保证了 ZuS 和其它独有特征的排斥性, 但是这无法保证 ZuS 就能提取到足够的共有的信息. 实际上, ZuS 不包含任何信息同样满足上面的约束;

  2. 故, 我们还希望最大化 X,Y,ZuS 之间的互信息:

    I(ZuS;X;Y);

  3. 最后我们的指标就是最小化:

    L=I(ZuX;ZuS)+I(ZuY;ZuS)2I(ZuS;X;Y).

关于优化目标的显式推导, 由于实在太多, 这里就不写了, 可以回看论文, 推导所必须的东西整理在 [here] and [here]

注: 文中 公式 (12, 13) 的 ELBO 实际上应该为 ELBO 才对.
注: 文中公式 (13) 第一个不等式中的 DKL 缺少 Ep(u,vX,vT)[].

代码

[official]

posted @   馒头and花卷  阅读(392)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Obsidian + DeepSeek:免费 AI 助力你的知识管理,让你的笔记飞起来!
· 分享4款.NET开源、免费、实用的商城系统
· 解决跨域问题的这6种方案,真香!
· 一套基于 Material Design 规范实现的 Blazor 和 Razor 通用组件库
· 5. Nginx 负载均衡配置案例(附有详细截图说明++)
点击右上角即可分享
微信分享提示