对比学习-Towards Robust Graph Contrastive Learning

对比学习-Towards Robust Graph Contrastive Learning

标签:鲁棒性、对比学习、图神经

动机

  • 提升对抗攻击中的鲁棒性,并扩展到自监督对比学习方法中

贡献

  • 提出了图鲁棒对比学习 (GROC),将对抗性转换整合到图形对比学习框架中,这是一种完全自监督的图算法,旨在实现对抗攻击的鲁棒性。
  • 在几个流行的节点分类数据集上对 GROC 进行了评估。初步结果表明,GROC 改进了对抗攻击的鲁棒性,同时在干净的例子上保持了相当的性能
  • 概述了未来可能的方向。我们计划扩展我们的工作,以提高我们的方法的效率,并扩展我们的实验
  • 重点是将对比学习和对抗性转换相结合,\(\tau_i = \tau_i' \circ \tau_i''\) ,其中 \(\tau_i'\) 是对比学习中对图结构做出的改动,\(\tau_i''\) 是根据对抗性变换对图结构的改变。

思想

核心

引入了对抗攻击中的鲁棒性,如何进行引入?

在对比学习中随机对边和特征变换的之后,还融合了属于对抗攻击中对边的操作 (通过反向传播 loss 获得每条边的权值,通过权值进行对边的增加和删减) 最终获得两个视图。

GROC框架

step-a: 从图中选择一个锚点 (anchor) 的集合

step-b: 我们使用两个随机变换(transformations) \(\tau_1'\)\(\tau_2'\) (\(\tau_1'、\tau_2' \in T\)) 随机 mask 节点特征去获得两个不同的视图。该图简化锚点中感受野的并集,这里的只用一阶邻居

step-c: 我们对这两个图应用对抗性转换 (adversarial transformations) \(\tau_1''\)\(\tau_2''\) ,基于梯度信号去移除或者插入边

step-d: 通过对比学习,我们将相同锚点的 embedding 的强制嵌入在一起,将不同的锚点的 embedding 强制分开

损失函数

为每个节点定义对比损失函数 \(L(v,\tau_1, \tau_2) = -\log \frac{exp(\sigma(z_1, z_2)/t)}{exp(\sigma(z_1, z_2)/t) + \sum_{u \in Neg(v) }exp(\sigma(z_1, f_{\theta}(u))/t)}\)

最后定义梯度更新 \(\theta\) ,最小化函数:\(\frac{1}{2n}\sum_{u \in V}[L(v, \tau_1, \tau_2) + L(v, \tau_2, \tau_1)]\)

伪码

\(1-2\) 行初始化参数 GNN 中参数和层数,对于每一个点,我们首先预处理出它的 \(l\quad hops\) 邻居顶点集和边集

\(3\) 训练的次数

\(4\) 随机将顶点集划分成 \(n/b\) 个大小为 \(b\)batch

\(5\) 循环每个小 \(batch\)

\(6\) 应用随机变换 \(\tau_1'、\tau_2'\) 将一个图 \(G\) 生成两个视图,用概率 \(p\) mask 一些特征

\(7\) \(S^-\)\(batch\) 中所有点的 \(l-hop\) 边集,//作为移除边的候选集

\(8\) 对于每个顶点 \(v\)\(\hat{V}_l(v)\)\(V\) 除去 batch 中所有的 l-hop 顶点 \(v\) 集合中剩余顶点,\(S^+\) 为 $\hat{V_l}(v)与 v $组成的边//作为加边候选集

\(9\) 临时添加 带有 \(1/|S^+|\) 权重$ S^+$ 到两个视图,在下一步进行移除

\(10\) 对于两个视图应用 \(f\) 并且计算对比损失函数,只考虑 batch 中的顶点

\(11\) 反向传播获得每个边的梯度信号值 \(g(e)\)

\(12\) 应用对抗攻击变换 \(\tau_1''、\tau_2''\)\(\tau_1''\) 是在 \(S^-\) 按照从小到大的 \(g(e)\) 中移除 $ q_{i}^{-} ·| S^-|$ 条边,\(\tau_2''\) 是在 \(S^+\) 按照从大到小的 \(g(e)\)中添加 $ q_{i}^{+} ·| S^+|$ 条边

\(13\) 对于两个视图,再次应用 \(f\) 并且计算对比损失函数,只考虑 batch 中的顶点

\(14\) 更新他们的参数权重 \(\theta\)

实验

主要通过对比两个自监督方法 GCN 和 GRACE 上进行对比,在对抗扰动后效果明显提升。

posted @ 2021-11-15 10:09  owo_owo  阅读(507)  评论(1编辑  收藏  举报