Robust Graph Representation Learning via Neural Sparsification

Zheng C., Zong B., Cheng W., Song D., Ni J., Yu W., Chen H. and Wang W. Robust graph representation learning via neural sparsification. ICML, 2020.

自动稀疏化图的, 思想很简单, 就是学一个概率分布然后用 Gumbel-softmax 采样.

符号说明

  • n 个结点的图;
  • G=(V,E,A), 图;
  • VRn×dn, 每一行是对应结点的特征;
  • E{0,1}n×n, 邻接矩阵, E(u,v)=1 若存在边 (u,v);
  • ARn×n×de, A(u,v) 表示边 euv 所对应的边的特征.

NeuralSparse

  • 图上的任务可以归结为估计概率分布:

    P(Y|G),

    如果是 node-level 的分类任务, 则 YRn×c, 若是 graph-level 的分类任务, 则 YRc.

  • 作者认为:

    P(Y|G)=gSGP(Y|g,G)P(g|G)gSGP(Y|g)P(g|G).

    即, 稀疏化后的 graph g 包含了大部分预测 Y 所需的信息.

  • 作者的想法很简单, 就是用:

    P(g|G)Qϕ(g|G),P(Y|g)Qθ(Y|g).

    Qϕ 实际上是一个稀疏化网络, Qθ 实际上是在空间 SG 上的一个分类网络.

  • 针对稀疏化, 作者首先选择了一个非常简单的 SG, 作者假设稀疏化后的图每个结点只有 k 个邻居, 整体的稀疏化过程如下:

  • 即, 通过一个简单的 MLP 来预测出边 (u,v) 的 logit, 然后通过 gumbel-softmax 进行采样.

  • Qθ 就是一般的图网络.

posted @   馒头and花卷  阅读(23)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2022-10-18 Interpreting and Unifying Graph Neural Networks with An Optimization Framework
2019-10-18 On the Optimization of Deep Networks: Implicit Acceleration by Overparameterization
点击右上角即可分享
微信分享提示