Spectral Networks and Deep Locally Connected Networks on Graphs

[Bruna J., Zaremba W., Szlam A. and LeCun Y. Spectral networks and deep locally connected networks on graphs. In International Conference on Learning Representations (ICLR), 2014](Spectral Networks and Locally Connected Networks on Graphs)

这篇文章算是开启GCN的工作, 其利用 Laplacian 矩阵做的 spectral construction 的工作的确是很有意思的, 就是读起来很费劲.
即便是看了 here 中一些大佬的通俗易懂的讲解, 我还是没能从头到尾串起来.
但是我感觉如果我不写下来, 过不了一个礼拜就会忘得一干二净. 这里我才用一套和原文有出入的符号体系, 并省去 spatial domain部分 (这部分感觉没有一个好的图来辅助讲解太困难了).

主要内容

符号

  • G={V,E}, |G|=n, V={v1,v2,,vn}E分别为图G的顶点和边;
  • XRn×d 第行向量 xi=[f1(vi),f2(vi),,fd(vi)]TRd为第i个顶点的特征;
  • WRn×n, wijeijE上的权重;
  • Laplacian 矩阵: L=DW, 其中D为对角矩阵, Dii=jwij;
  • Laplacian的矩阵分解为: L=VΛVT,VRn×n.

从正规的卷积到图卷积

对于例如图像而言, 我们可以很容易地定义形如 k×k 的卷积核来抓局部的特征信息, 实际上是其是将周围的邻居的信息进行一个综合过滤, 而普通的图无法做到这一点的原因是对于不同的图和顶点v而言, 其周围的邻居的结构和数目是不定的, 因此无法构建这样一个合适的卷积核.
对于标准卷积而言 (表对应元素相乘),

(1)fg=[f^g^]ˇ,

傅里叶变换实际上就是求在特殊正交基下的系数:

f^=UTf,

然后

f^ˇ=UUTf,

故 (1) 可以重写为

fg=U[UTfUTg]=UΛgUTf,

其中对角矩阵Λg对对角线元素为UTg.

现在我们需要把这种思想运用到一般的图结构之上, 类似地, 令X的第j列为fjRn, 然后gj为一'卷积核' (注意, g的维度不必为n).

采用 Laplacian 矩阵的特征向量 V用以替代U, 得

fjgj=VΛgjVTfj,j=1,2,,d,

我们可以类比j为2D卷积中的channel, 故上述是对于第j通道的卷积, 则由卷积 G=[g1,,gj] 卷积后的特征为:

z=jfjgj=ViΛgjVTfjRn.

对于每一组Gk都有对应的特征zk, 正如普通的2D卷积一样, 倘若我们共有d组, 提取后每个顶点vi所对应的特征xiRd.

因为 L=VΛVT, 通常可以仅凭少量的特征向量就能很好的近似L, 故我们通常可以截取大特征值对应的部分VmRn×m, 此时gRm, 这进一步减少了参数量.

下面是我的一些疑问:

  1. V真的能很好替代U吗? 我看大部分讲解都说是因为傅里叶变换正交基实际上是Laplacian算子Δ的特征函数, 所以 L 作为其在图上的近似, 用V是合情合理的.
  2. 这样的操作和基于spatial domain的图卷积的结果有何相似之处? 换言之, 这样的卷积操作是否也能保证只对其部分邻居有效? 即卷积g的感受野和维度m或者别的有什么联系?
  3. 我看了 Laplacian 矩阵, 其中一个重要性质是其和图的 CTD 的紧密联系, 那么这种卷积方式和 CTD 又有何联系?
posted @   馒头and花卷  阅读(133)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Obsidian + DeepSeek:免费 AI 助力你的知识管理,让你的笔记飞起来!
· 分享4款.NET开源、免费、实用的商城系统
· 解决跨域问题的这6种方案,真香!
· 一套基于 Material Design 规范实现的 Blazor 和 Razor 通用组件库
· 5. Nginx 负载均衡配置案例(附有详细截图说明++)
历史上的今天:
2020-04-23 Orthogonal Convolutional Neural Networks
2020-04-23 [Box] Robust Training and Initialization of Deep Neural Networks: An Adaptive Basis Viewpoint
2020-04-23 [Kaiming]Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
2020-04-23 [Xavier] Understanding the difficulty of training deep feedforward neural networks
2019-04-23 Robust PCA via Outlier Pursuit
点击右上角即可分享
微信分享提示