Huang Q., He H., Singh A., Lim S. and Benson A. R. Combining label propagation and simple models out-performs graph neural networks. ICLR, 2021.
概
将预测概率作为信号进行传播.
符号说明
- G=(V,E), 图;
- |V|=n;
- X∈Rn×p;
- A∈Rn×n, 邻接矩阵;
- S:=D−1/2AD−1/2, normalized 邻接矩阵;
- Y∈Rn×c, ont-hot-encoding matrix;
- L, labled nodes;
- Lt, training set;
- Lv, validation set.
C&S
-
假设我们有一个基本的 predictor, 它返回的是结点的标签的预测概率 Z∈Rn×c.
-
现在我们有训练集合上的真实标签 YLt, 则我们有误差:
E=E(0)=ELt=ZLt−Yt.
-
但是, 我们不清楚其它的非训练中的结点的误差, 但是我们可以通过图来传播这些误差, 这么做的目的是为了误差更加平滑 (或许能够起到去除噪声的作用):
^E=argminWtrace(WT(I−S)W)+μ∥W−E∥2F,
它的最优解可以通过不停地迭代下式而收敛:
E(t+1)=(1−α)E+αSE(t),
其中 α=1/(1+μ).
-
但是, 作者发现这种方式, 由于:
∥E(t+1)∥2≤(1−α)E+α∥S∥2∥E(t)∥2≤∥E∥2,
故很难保证最终的 scale 是正确的.
-
故作者提出了两种 scale 的方式:
-
AutoScale: 定义 σ=1|Lt|∥E(0)∥1, 则 unlabeled node i 上的误差为:
Z(r)i,:=Zi,:+σ^E:,i/∥^ET:,i∥1.
-
Scaled Fixed Diffusion: 每次迭代, 保持 E(t)L=EL 然后传播:
E(t+1)U=[D−1AE(t)]U.
最后, 作者发现加一个超参数 s 用于调节
Z(r)=Z+s^E
会有比较好的效果.
-
如此, 我们得到了修正后的预测: Z(r). 作者接着令:
GLt=YLt,GLv,U=Z(r)Lv,U,
并通过如下公式迭代:
G(t+1)=(1−α)G+αSG(t).
代码
official
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
2021-05-22 EMA