PA-GNN Parameter-Adaptive Graph Neural Networks

Yang Y., Liang Y. and Zhang M. PA-GNN: Parameter-adaptive graph neural networks. ICML workshop, 2022.

一个自适应学习 GNN layer weights 的方法.

符号说明

  • G=(V,E), graph;
  • n=|V|;
  • ARn×n, adjacency matrix;
  • A~=A+I;
  • D~, degree matrix of A~;
  • A~sym=D~1/2A~D~1/2, normalized adjacency matrix with self loops;
  • XRn×d, node feature matrix.

PA-GNN

  • 一般的基于谱的方法形如

    Z=k=0KγkA~symkH(0),

    其中 H(0)=X. γk,k=0,,K 为固定的系数.

  • GPR-GNN 将这些系数替换为可训练的参数, 从而能够自动地学习. 但是这种简单的设计方式略微有些粗暴了.

  • PA-GNN 采用稍复杂的方式. 首先, PA-GNN 最终的形式为

    Zi=k=0Kγik[A~symkH(0)],

    其中 ZiZi-th 行向量. 注意到, PA-GNN 为每个结点赋予了一组不同的系数, 这使得它能够更容易抓住不同的局部特征.

  • 特别地, PA-GNN 设计了一个 Parameter Network 来得到参数 γik (见下图的上半部分):

  • 具体的, γik 的计算方式如下:

    1. 计算输入:

      Hp(0)=fθ1(X)ξ,

      其中 fθ1 为 MLP, ξ 表示通过 DeepWalk 得到的表示向量, 表示向量拼接操作;
    2. 通过 Parameter Network 进行转换 (实际上就是一个 GPR-GNN):

      Zp=k=0MφkA~symkHp(0)Rn×d,

    3. 计算 Δγik:

      Δγik=fθ3([Zp]i),

      这里 fθ3 也是 MLP, [Zp]i 表示 Zp 的第 i-th 个行向量.
    4. 最后

      γik=γkglobal+Δγiklocal,

      其中 γk 同样是可训练的参数.
  • 训练的时候, 作者 γik 添加了 L1-norm 的惩罚, 防止不同的结点的系数差异过大.

posted @   馒头and花卷  阅读(31)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示