访问次数
我的另一个总结性博客: todototry 大米粒

GNN的演进与理论

GNN的演进与理论

如何理解 Graph Convolutional Network(GCN)? - superbrother的回答 - 知乎

https://www.zhihu.com/question/54504471/answer/332657604

 

频域系列GCN的理解与详细推导(拉普拉斯矩阵 与 特征向量, 傅里叶变换 频域信号处理。 演进与关系;)

https://blog.csdn.net/yyl424525/article/details/100058264

 

基于频域GCN理论基础(拉普拉斯矩阵与傅里叶变换)

https://blog.csdn.net/qq_44015059/article/details/105341555


GNN在谱域下的演化:Spectral CNN,ChebyNet,GCN

https://blog.csdn.net/weixin_45884316/article/details/118724282

 

空间域的所有图模型

https://blog.csdn.net/yyl424525/article/details/103172141

GCN本质的理解

https://luweikxy.gitbook.io/machine-learning-notes/graph-neural-networks/graph-convolutional-networks/gcn-essential-understand

 

傅立叶定律| 6个常见问题解答都很重要
https://zh-cn.lambdageeks.com/fouriers-law-its-all-important/

 

3.3 为什么GCN要用拉普拉斯矩阵?

  • 拉普拉斯矩阵是对称矩阵,可以进行特征分解(谱分解)
  • 由于卷积在傅里叶域的计算相对简单,为了在graph上做傅里叶变换,需要找到graph的连续的正交基对应于傅里叶变换的基,因此要使用拉普拉斯矩阵的特征向量。

3.4. 拉普拉斯矩阵的谱分解(特征分解)

  1. GCN的核心基于拉普拉斯矩阵的谱分解,文献中对于这部分内容没有讲解太多,初学者可能会遇到不少误区,所以先了解一下特征分解。
  2. 特征分解(Eigendecomposition),又称谱分解(Spectral decomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。只有对可对角化矩阵或有n个线性无关的特征向量的矩阵才可以施以特征分解。
  3. 不是所有的矩阵都可以特征分解,其充要条件为n阶方阵存在n个线性无关的特征向量。
  4. 但是拉普拉斯矩阵是半正定矩阵(半正定矩阵本身就是对称矩阵),有如下三个性质:
  5. 对称矩阵一定n个线性无关的特征向量
  6. 半正定矩阵的特征值一定非负
  7. 对阵矩阵的不同特征值对应的特征向量相互正交,这些正交的特征向量构成的矩阵为正交矩阵。
  8. 由上拉普拉斯矩阵对称知一定可以谱分解,且分解后有特殊的形式。

————————————————

版权声明:本文为CSDN博主「不务正业的土豆」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/yyl424525/article/details/100058264

posted @ 2022-12-23 10:15  fandyst  阅读(107)  评论(0编辑  收藏  举报