Decoupling the Depth and Scope of Graph Neural Networks

Zeng H., Zhang M., Xia Y., Srivastava A., Malevich A., Kannan R., Prasanna V., Jin L. and Chen R. Decoupling the depth and scope of graph neural networks. NIPS, 2021.

为每个结点抽取一子图作为结点的代表, 然后推理过程仅限定在子图上, 作者证明了这种方式的表达能力.

符号说明

  • G=(V,E,X), global graph;

  • V, node set;

  • EV×V, edge set;

  • XR|V|×d, node feature matrix;

  • AR|V×V|, adjacency matrix;

  • G[u], 以结点为 u 中心的子图, 这个子图可以是通过一些启发式的方法从 global graph G 采样得到的, 也可以是学习的得到的 (比如以 u 为中心的 2-hop 子图);

  • X[u],A[u] 就是子图 G[u] 所诱导的特征矩阵和邻接矩阵, 且规定:

    [X[u]]v=0,vV[u],[A[u]]v,w=0,vV[u] or wV[u].

Shadow-GNN

  • Shadow-GNN 的想法其实很简单, 就是假设我们有一个 GNN 的网络, 其为:

    H=f(X;G),

    u 的表征为 Hu. Shadow-GNN 做如下的一个改动:

    Hu:=READOUTfEXTRACT(u;X;G)),

  • EXTRACT() 是提取中心为 u 的子图, 而 READOUT() 则是将图表征转换为结点的表征, 以用于后续的任务.

  • 本文主要聚焦的点在于这种方式的表达能力, 作者证明了:

    1. Shadow-GNN 是 local-smoothing 的 (但很难 over-smoothing), 所以允许多层的 GNN 网络架构;
    2. Shadow-SAGE 有着和 GraphSAGE 相似的逼近能力;
    3. Shadow-GIN 有着和 GIN 一样的 1-WL test 的能力.
  • 至于子图的具体提取方式, 作者主要考虑了启发式的抽取方式: 根据 pagerank weight 采样, 或者直接根据 hops 选取 (一般 2, 3 hops 就足够了).

代码

[official]

posted @   馒头and花卷  阅读(136)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2021-11-17 Scalable Rule-Based Representation Learning for Interpretable Classification
点击右上角即可分享
微信分享提示