Spectral Networks and Deep Locally Connected Networks on Graphs
[Bruna J., Zaremba W., Szlam A. and LeCun Y. Spectral networks and deep locally connected networks on graphs. In International Conference on Learning Representations (ICLR), 2014](Spectral Networks and Locally Connected Networks on Graphs)
概
这篇文章算是开启GCN的工作, 其利用 Laplacian 矩阵做的 spectral construction 的工作的确是很有意思的, 就是读起来很费劲.
即便是看了 here 中一些大佬的通俗易懂的讲解, 我还是没能从头到尾串起来.
但是我感觉如果我不写下来, 过不了一个礼拜就会忘得一干二净. 这里我才用一套和原文有出入的符号体系, 并省去 spatial domain部分 (这部分感觉没有一个好的图来辅助讲解太困难了).
主要内容
符号
- , , 和分别为图的顶点和边;
- 第行向量 为第个顶点的特征;
- , 为上的权重;
- Laplacian 矩阵: , 其中为对角矩阵, ;
- Laplacian的矩阵分解为: .
从正规的卷积到图卷积
对于例如图像而言, 我们可以很容易地定义形如 的卷积核来抓局部的特征信息, 实际上是其是将周围的邻居的信息进行一个综合过滤, 而普通的图无法做到这一点的原因是对于不同的图和顶点而言, 其周围的邻居的结构和数目是不定的, 因此无法构建这样一个合适的卷积核.
对于标准卷积而言 (表对应元素相乘),
傅里叶变换实际上就是求在特殊正交基下的系数:
然后
故 (1) 可以重写为
其中对角矩阵对对角线元素为.
现在我们需要把这种思想运用到一般的图结构之上, 类似地, 令的第列为, 然后为一'卷积核' (注意, 的维度不必为).
采用 Laplacian 矩阵的特征向量 用以替代, 得
我们可以类比为2D卷积中的channel, 故上述是对于第通道的卷积, 则由卷积 卷积后的特征为:
对于每一组都有对应的特征, 正如普通的2D卷积一样, 倘若我们共有组, 提取后每个顶点所对应的特征.
因为 , 通常可以仅凭少量的特征向量就能很好的近似, 故我们通常可以截取大特征值对应的部分, 此时, 这进一步减少了参数量.
下面是我的一些疑问:
- 真的能很好替代吗? 我看大部分讲解都说是因为傅里叶变换正交基实际上是Laplacian算子的特征函数, 所以 作为其在图上的近似, 用是合情合理的.
- 这样的操作和基于spatial domain的图卷积的结果有何相似之处? 换言之, 这样的卷积操作是否也能保证只对其部分邻居有效? 即卷积的感受野和维度或者别的有什么联系?
- 我看了 Laplacian 矩阵, 其中一个重要性质是其和图的 CTD 的紧密联系, 那么这种卷积方式和 CTD 又有何联系?
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Obsidian + DeepSeek:免费 AI 助力你的知识管理,让你的笔记飞起来!
· 分享4款.NET开源、免费、实用的商城系统
· 解决跨域问题的这6种方案,真香!
· 一套基于 Material Design 规范实现的 Blazor 和 Razor 通用组件库
· 5. Nginx 负载均衡配置案例(附有详细截图说明++)
2020-04-23 Orthogonal Convolutional Neural Networks
2020-04-23 [Box] Robust Training and Initialization of Deep Neural Networks: An Adaptive Basis Viewpoint
2020-04-23 [Kaiming]Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
2020-04-23 [Xavier] Understanding the difficulty of training deep feedforward neural networks
2019-04-23 Robust PCA via Outlier Pursuit