Combining Label Propagation and Simple Models Out-performs Graph Neural Networks

Huang Q., He H., Singh A., Lim S. and Benson A. R. Combining label propagation and simple models out-performs graph neural networks. ICLR, 2021.

将预测概率作为信号进行传播.

符号说明

  • G=(V,E), 图;
  • |V|=n;
  • XRn×p;
  • ARn×n, 邻接矩阵;
  • S:=D1/2AD1/2, normalized 邻接矩阵;
  • YRn×c, ont-hot-encoding matrix;
  • L, labled nodes;
  • Lt, training set;
  • Lv, validation set.

C&S

  • 假设我们有一个基本的 predictor, 它返回的是结点的标签的预测概率 ZRn×c.

  • 现在我们有训练集合上的真实标签 YLt, 则我们有误差:

    E=E(0)=ELt=ZLtYt.

  • 但是, 我们不清楚其它的非训练中的结点的误差, 但是我们可以通过图来传播这些误差, 这么做的目的是为了误差更加平滑 (或许能够起到去除噪声的作用):

    E^=argminWtrace(WT(IS)W)+μWEF2,

    它的最优解可以通过不停地迭代下式而收敛:

    E(t+1)=(1α)E+αSE(t),

    其中 α=1/(1+μ).

  • 但是, 作者发现这种方式, 由于:

    E(t+1)2(1α)E+αS2E(t)2E2,

    故很难保证最终的 scale 是正确的.

  • 故作者提出了两种 scale 的方式:

    1. AutoScale: 定义 σ=1|Lt|E(0)1, 则 unlabeled node i 上的误差为:

      Zi,:(r)=Zi,:+σE^:,i/E^:,iT1.

    2. Scaled Fixed Diffusion: 每次迭代, 保持 EL(t)=EL 然后传播:

      EU(t+1)=[D1AE(t)]U.

      最后, 作者发现加一个超参数 s 用于调节

      Z(r)=Z+sE^

      会有比较好的效果.

  • 如此, 我们得到了修正后的预测: Z(r). 作者接着令:

    GLt=YLt,GLv,U=ZLv,U(r),

    并通过如下公式迭代:

    G(t+1)=(1α)G+αSG(t).

代码

official

posted @   馒头and花卷  阅读(39)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2021-05-22 EMA
点击右上角即可分享
微信分享提示