How Do Recommendation Models Amplify Popularity Bias? An Analysis from the Spectral Perspective

Lin S., Gao C., Chen J., Zhou S., Hu B., Feng Y., Chen C. and Wang C. How do recommendation models amplify popularity bias? An analysis from the spectral perspective. WSDM, 2025.

本文分析在不引入额外的约束下, 基于矩阵分解的模型倾向于匹配 item 的流行度.

符号说明

  • U, user set, |U|=n;
  • I, item set, |I|=m;
  • Y{0,1}n×m, interaction matrix;
  • ri=uUyui, 表示 item 的交互频率, 总的构成流行度向量 (popularity vector) r.

Popularity bias

  • 我们考虑基于矩阵分解的方法, 它提供:

    uu,vi,

    用以计算 user u 和 item i 之间的相似度

    y^ui=μ(uuTvi),

    这里 μ() 表示激活函数.

  • URn×d,VRm×d 表示 user, item 的向量矩阵, 可得

    Y^=μ(UVT).

  • 对预估的得分矩阵 Y^ 进行 SVD 分解:

    (1)Y^=PΣQT=1kLσkpkqkT,L=min(n,m),

    σ1σ2σL.

q1r 具有高相似度

  • 上图展示了 (1) 中的主(右)奇异向量 q1 和 popularity vector r 的 cosine 相似度:

    q1Trq1r

    非常接近 1. 因此, 我们可以认为, 传统模型所学到的得分矩阵 Y^ 其实受到了非常非常多的流行度的影响.

  • 进一步地, 我们可以理论证明这一点:

  • Theoerm 1 (Popularity memorization effect): 给定一个 embedding-based 的模型且具备足够的表达能力, 当 r 服从 power-law, 我们有:

    cos(q1,r)σ12rmaxζ(2α)1rmax(ζ(α)1)σ12,

    其中 rmax=maxiri, ζ(α) 表示 Riemann zeta function ζ(α)=j=11jα.

proof:

  • 注意, 这里假设模型有足够的表达能力, 即假设 Y^ 能够足够近似 Y, 于是后面的分析相当于都是基于 Y 的 SVD 分解之上.

  • 于是

    cos(q1,r)=q1Trr=q1TYTer=σ1p1Ter.

  • r=i=1mri2=i=1m(rmaxiα)2=rmaxi=1mi2αrmaxζ(2α).

  • 于是

    cos(q1,r)σ1eTp1rmaxζ(2α).

  • 后续需要 bound σ1eTp1, 需要更多的符号引入 (详情请回看原文).

相似度随着维度降低而增加

  • 这个其实是比较显然, 因为维度降低总的能量降低了.

相似度随着训练的变化

  • 随着训练进行, popularity bias 的影响是逐步降低的, 但是过低实际上会导致效果的下降, 这似乎说明了 popularity bias 的需要维持在一定程度, 过低或这过高都不太好.

ReSN: Regulartion with Spectral Norm

  • 本文提出的方法是:

    LReSN=LR(Y,Y^)+βY^22,

    这里 2 是谱范数.

  • 但是这个计算是复杂的, 因此用如下的替代

    βVUTe2UVTVUTe2.

    相当于, 我们要求最后得到 score matrix 和流行度向量

    VUTe

    的匹配度不能太高 (根据证明, VUTe 是比较接近 q1 的).

posted @   馒头and花卷  阅读(5)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示