Graph Neural Networks with Learnable and Optimal Polynomial Bases

Guo Y. and Wei Z. Graph neural networks with learnable and optimal polynomial bases. ICML, 2023.

自动学多项式基的谱图神经网络.

符号说明

  • V, node set, |V|=N;
  • E, edge set;
  • P^, normalized adjacency matrix;
  • L^=IP^, normalized Laplacian matrix;
  • XRN×d, node features.

Motivation

  • 一般的普通神经网络可以表述为如下的形式:

    Z=k=0Kαkgk(P^)X,

    其中 gk(P^) 通常是多项式基.

  • 特别的, {gk} 通常关于非负的权重函数 w() 正交, 即

    gi,gj=abgi(x)gj(x)w(x)dx=0,if ij.

  • 一些常见的多项式基如下所示:

  • 大部分叫的上名字的多项式基都被考虑过了, 当然因为这些叫的上名字的多项式基或多或少都有一些比较好的性质, 本文的一个想法是, 不能够自己学一个多项式基呢?

FavardGNN

  • 首先, 有如下的两个定理:

  • 即, 对于任意的正交多项式基, 我们能够构造出 three-term recurrence 的迭代公式, 反之, 一旦我们构造出了这样的迭代公式, 也就确定了一个(正交)多项式基.

  • 其实, 如果对 Chebyshev, Jacobi 不陌生的同学已经发现, 这些多项式基的定义, 本身就是 three-term recurrence 形式的.

  • 总而言之, 只要我们将 {βk},{γk} 视作可学习的参数, 则我们就可以自动地学习一个比较好的多项式基. 当然了 βk 所对应的可学习参数需要保证是非负的.

  • 于是, 由此导出的 FavardGNN 便可表示为:

注: 作者还讨论了一种加了额外限制的多项式基, 有兴趣的可以回看原文.

代码

[official]

posted @   馒头and花卷  阅读(61)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2020-12-02 FineGAN
点击右上角即可分享
微信分享提示