Recommendations as Treatments: Debiasing Learning and Evaluation

Schnabel T., Swaminathan A., Singh A., Chandak N., Joachims T. Recommendations as treatments: debiasing learning and evaluation. In International Conference on Machine Learning (ICML), 2016

由于一些未观测数据的存在, 一般的损失估计会存在 bias, 导致经此训练后的模型的表现不是很好. 本文提出用一种无偏的估计 (IPS) 来替代.

符号说明

  • u{1,2,,U}, user;
  • i{1,2,,I}, item;
  • YRU×I, true ratings;
  • O{0,1}U×I, Ou,i=1 表示 Yu,i 是观测到的数据;
  • Pu,i:=P(Ou,i=1);

MNAR 带来的 bias

通常, 我们希望最小化如下的损失来优化预测 Y^:

(1)R(Y^)=1UIu=1Ui=1Iδu,i(Y,Y^),

这里 δu,i 可以是

MAE:δu,i(Y,Y^)=|Yu,iY^u,i|,MSE:δu,i(Y,Y^)=(Yu,iY^u,i)2,Accuracy:δu,i(Y,Y^)=I(Yu,i=Y^u,i).

但是, 因为部分数据 Yu,i 的缺失, 我们通常用如下的损失替代:

(5)R^naive(Y^)=1|{(u,i):Ou,i=1}|(u,i):Ou,i=1δu,i(Y,Y^).

但是 (5) 通常只有在 MCAR (Missing Completely At Random) Pu,ip 的 uniform 的情况 (且互相独立) 下才是 (1) 的无偏估计:

EO[R^naive(Y^)]=EO[1|{(u,i):Ou,i=1}|(u,i):Ou,i=1δu,i(Y,Y^)]=(u,i)δu,i(Y,Y^)EOu,i[1u,iOu,iOu,i]=EO[Ou,iOu,i](u,i)δu,i(Y,Y^) [MCAR] Ou,iOu,i+Pu,ip=1UI(u,i)δu,i(Y,Y^)u,iEO[Ou,iu,iOu,i]=1,EO[Ou,iu,iOu,i]=EO[Ou,iu,iOu,i].

而通常的 MNAR (Missing Not At Random) 情况, 上述的无偏性就失效了, 即

EO[R^naive(Y^)]R(Y^).

IPS Estimator

我们可以用如下的 Inverse-Propensity-Scoring (IPS) estimator 来替代 (5):

(10)R^IPS(Y^|P)=1UI(u,i):Ou,i=1δu,i(Y,Y^)Pu,i,

其中 |P 表示各 Pu,i 都是已知的, 当然这是比较理想的情况, 后面会给出更切实际的替代.

容易发现:

EO[R^IPS(Y^|P)]=1UI(u,i)EOu,i[δu,i(Y,Y^)Pu,iOu,i]=1UI(u,i)δu,i(Y,Y^)Pu,iEOu,i[Ou,i]=1UI(u,i)δu,i(Y,Y^)=R(Y^).

故 (10) 是一个无偏统计量.

IPS Estimator 的变化性

Proposition 3.1 (Tail Bound for IPS Estimator): 倘若 Ou,i 相互独立. 则给定任意的 Y^,Y, 至少有 1η 的概率保证

|R^IPS(Y^|P)R(Y^)|1UIlog2η2u,iρu,i2,

其中 ρu,i=δu,i(Y,Y^)Pu,i 如果 Pu,i 否则 ρu,i=0.


proof:

Zu,i:=ρu,iOu,i, 则

P(|R^IPS(Y^|P)R(Y^)|ϵ)=P(|u,i(Zu,iE[Zu,i])|UIϵ)2exp(2(UIϵ)2u,iρu,i2)Hoeffding's inequality.

只需令等式右端等于 η, 然后求解出 ϵ 即可.


Pu,ip 的时候, 上界大概是 O(1/pUI) 级别的, 当 Pu,i 的分布严重不 uniform 的时候, 上界可能变得很大 (比如某个 Pu,i 特别小, 那么由于 Pu,i 作为分母, 会导致某个 ρu,i). 所以, 可以说 IPS 用变化性交易了无偏性.

例子

  1. ML100K数据集, 其上的 Y 是全部可知的;
  2. 通过指定 Pu,i 使得观测到的量在 5% 左右;
  3. 构造不同的 Y^:
    • REC_ONES: Y^u,i=Yu,i 除了在 {(u,i):Yu,i=1} 上, 随机将这些元素的打分设置为 Y^u,i=5;
    • REC_FOURS: 和上面的类似, 作用于 4 上;
    • ROTATE: Y^u,i=Yu,i1, if Yu,i2, Y^u,i=5, if Yu,i=1;
    • SKEWED: Y^u,iN(|μ=Yu,i,σ=6Yu,i2) 中采样, 然后截断至 [0,6];
    • COARSENED: Y^u,i=3, if Yu,i3, 否则 Y^u,i=4;
  4. 在这几种不同的情况下, 我们估计 MAE 所上图所示, 可以发现, IPS 比 Naive 要准确的多 (但是并不那么稳定).

注: 其它指标回看论文.

利用 IPS estimator 进行训练

(12)Y^ERM=argminY^H{R^IPS(Y^|P)}

为在空间 H 中的一个最优解.

泛化界

Theorem 4.2 (Propensity-Scored ERM Generalization Err Bound): 假设空间 H={Y^1,,Y^|H|} 是有限的, 且 0δu,i(Y,Y^)Δ, Pu,i 是互相独立的. 此时至少有概率 1η 能够保证

R(Y^ERM)R^IPS(Y^ERM|P)+ΔUIlog(2|H/η|)2u,i1Pu,i2.


proof:

P(|R(Y^ERM)R^IPS(Y^ERM|P)|ϵ)P(maxY^i|R(Y^i)R^IPS(Y^i|P)|ϵ)=P(Y^i|R(Y^i)R^IPS(Y^i|P)|ϵ)=1P(Y^i|R(Y^i)R^IPS(Y^i|P)|ϵ)1i=1HP(|R(Y^i)R^IPS(Y^i|P)|ϵ)1|H|2exp(2ϵ2U2I2u,iΔ2Pu,i2) Proposition 3.1.

令最后的部分等于 1η 然后求解出 ϵ 即可.


这意味着, 优化 (12) 实际上是在优化原先的一个上界.

例子

以 ma￾trix factorization

Y^u,i=vuTwi+aui

为例, 此时需要优化

argminV,W,A[Ou,i=1δu,i(Y,VTW+A)Pu,i+λ(VF2+WF2)].

估计 Propensity Score

然而在实际中, Pu,i 通常是未知的, 此时我们需要估计 P^u,i. 容易发现

bias(R^IPS(Y^|P^)):=R^(Y^)EO[R^IPS(Y^|P^)]=u,iδu,i(Y,Y^)UI[1Pu,iP^u,i]

即, 此时无偏性以及失去了.

泛化界

利用 R^IPS(Y^|P^) 的泛化界为:

Theorem 5.2 (Propensity-Scored ERM Generalization Error Bound under Inaccurate Propensities): 假设空间 H={Y^1,,Y^|H|} 是有限的, 且 0δu,i(Y,Y^)Δ, Pu,i 是互相独立的. 此时至少有概率 1η 能够保证

R(Y^ERM)R^IPS(Y^ERM|P^)+ΔUIu,i|1Pu,iP^u,i|+ΔUIlog(2|H/η|)2u,i1P^u,i2.


proof:

只需注意到:

|R(Y^ERM)R^IPS(Y^ERM|P^)|=|R(Y^ERM)EO[R(Y^ERM|P^)]+EO[R(Y^ERM|P^)]R^IPS(Y^ERM|P^)||R(Y^ERM)EO[R(Y^ERM|P^)]|+|EO[R(Y^ERM|P^)]R^IPS(Y^ERM|P^)|ΔUIu,i|1Pu,iPu,i|+|EO[R(Y^ERM|P^)]R^IPS(Y^ERM|P^)|

而后者通过和定理 4.2 无二的证明方式即可.


上面的结论给出一个泛化界, 至于具体的估计方法, 作者给出了 Naive Bayes 和 Logistic Regression 两种方法.

疑问

需要注意的是, 一般的 Propensity Score e(X) 需要满足:

XZ|e(X),

其中

e(X):=P(Z|X).

在这里, 我们可以理解为

e(U,V)=P(O|U,V),

是一种实例级别的划分. 在实际情况中, 通常应该是

e(X)=P(O|X(U,V)),

即满足相同性质 XU,V 服从相同的缺失率. 可以说文章中的两个估计方法就是依此准则来估计的, 而并非实例级别的估计.

代码

[official]

posted @   馒头and花卷  阅读(335)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示