论文解读(GTN)《Graph Transformer Networks》

论文信息

论文标题:Graph Transformer Networks
论文作者:Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim
论文来源:2019, NeurIPS
论文地址:download 
论文代码:download 

1 Introduction

  GNNs 基于的理论假设:

    • 图结构固定(fixed)
    • 同质性(homogeneous)

2 Method

2.1 Preliminaries

  GTN 框架的一个输入是具有不同类型的节点和边的多图结构。设 TvTe 分别是节点类型和边类型的集合。输入图可以看作是一个异质图 G=(V,E) ,其中 V 是节点集, E 是可观察到的边集,还有一个节点类型映射函数 fv:VTv ,一个边类型映射函数 fe:ETe 。每个节点 viV 都有一个节点类型,即 fv(vi)Tv。同样地,对于 eijEfe(eij)Te 。当 |Te|=1|Tv|=1 时,它就成为了一个标准图。在本文中,考虑 |Te|>1 的情况。设 N 表示节点数,即 |V| 。异质图可以用 一组邻接矩阵 {Ak}k=1K 表示, 其中 K=|Te|AkRN×N 是一个邻接矩阵,当从 jik 类型的边时, Ak[i,j] 非零,可被简写成一个张量 ARN×N×K 。特征矩阵 XRN×D ,意味着每个节点的输入特征为 D 维。

Meta-Path

  由 p 表示,是异质图 G 上由异构的边连接的一条路径,即 v1t1v2t2tlvl+1 ,其中 tlTe 表示元路径中的一条 l 类型的边。它定义了节点 v1vl+1 之间的一个复合关系 R=t1t2tl ,其中 R1R2 表示关系 R1R2 的组成。给定复合关系 R 或边类型序列 (t1,t2,,tl) ,元路径 P 的邻接矩阵 AP 是通过邻接矩阵的乘法得到的:

    AP=AtlAt2At1(1)

  元路径的概念包含了多跳连接,在我们的框架中,新的图结构由邻接矩阵表示。例如,元路径 Author-Paper-Conference (APC) 可以表示为  AAPPPCC,通过 AAPAPC 的多重生成邻接矩阵 AAPC

Graph Convolutional network (GCN)

  标准GCN :

    H(l+1)=σ(D~12A~D~12H(l)W(l))(2)

  其他形式:

    H(l+1)=σ(D~1A~H(l)W(l))

2.2 Meta-Path Generation

  Fig. 1 中 Graph Transformer (GT) 层新元路径图生成:

   

  Graph Transformer (GT) Layer 有两个组成部分:

    • 首先,GT 层从候选邻接矩阵 A 中选择两个图结构 Q1Q2
    • 其次,它通过组成两个关系(即两个邻接矩阵的矩阵乘法,Q1Q2 )来学习一个新的图结构;

  邻接矩阵 Q 的选择方式如下:

    Q=F(A;Wϕ)=ϕ(A;softmax(Wϕ))(3)

  其中, ϕ 是卷积层,WϕR1×1×Kϕ 的参数。即 Q 是将 A  和权重参数 Wϕ 送去卷积层卷积得到的。

  每一个 Qi 可以表示成:

    tlTeαtl(l)Atl

  其中, Te 是边的类型集合, αtl(l) 是第 l 种边类型 tl 在第 l 层的权重。

  以 Fig.1 为例:

  Te4{t1,t2,t3,t4} ,即对应 4 层矩阵: {A1,A2,A3,A4}Wϕ={α1,α2,α3,α4}

  得到 Q1Q2 后,通过两个邻接矩阵的矩阵乘法 Q1Q2 得到新的元路径邻接矩阵。为了提高数值稳定性,通过该矩阵的度矩阵将归一化, 即 A(l)=D1Q1Q2

  现在,我们需要检查GTN是否可以学习关于边类型和路径长度的任意元路径。任意长度 l 元路径的邻接矩阵可以表示为:

    AP=(t1Teαt1(1)At1)(t2Teαt2(2)At2)(tlTeαtl(l)Atl)(4)

  其中  AP  表示元路径的邻接矩阵, Te  是边的类型集合,  αtl(l)  是第  l  个 GT 层上边类型  tl  的权重。当  α  不是 one-hot 向量时,  AP  可以看作是所有长度为  l  元路径邻接矩阵的加权和。因此,一个  l  个GT层的堆栈可以学习任意长度的  l  元路径图结构,如 Fig. 2 所示。这种结构的一个问 题是,添加 GT 层总是增加元路径的长度,而不允许使用原始的边。在一些应用中,长元路径和短元路径都很重要。为了学习包含原始边 的短元路径和长元路径 (如果全部按照图中的生成,则每一条元路径都是基于原始边所生成的,也就忽略了原始边的本身的特征),我们 在  A  中加入单位矩阵  I  ,即  A0=I  。这个技巧允许 GTN 学习任何长度的元路径,当  l  个GT层堆叠时,元路径的长度可达  l+1  。

  

2.3 Graph Transformer Networks

  为了同时生成多种类型的元路径,Fig. 1 中  1×1  卷积的输出通道设置为  C  。然后,GT 层产生一组元路径,中间邻接矩阵  Q1  和  Q2  成为邻接 张量  Q1  和  Q2RN×N×C  ,如 Fig.2 所示。通过多个不同的图结构学习不同的节点表示是有益的。在  l  个 GT 层堆叠之后,将 GCN 应用于元 路径张量  A(l)RN×N×C  的每个通道,并将多个节点的表示连接起来:

    Z=i=1Cσ(D~i1A~i(l)XW)(5)

  其中, 为连接运算符, C 表示通道数, A~i(l)=Ai(l)+I 表示张量 A(l) 的第 l 个通道的邻接矩阵, D~iA~i(l) 的度矩阵, WRd×d 是跨通道共享的可训练权重矩阵, XRN×d 是一个特征矩阵。

  Z 包含来自 C 个不同的元路径图的节点表示,该图具有可变性、长度最多为 l+1 。它用于顶部的节点分类。损失函数是具有真实标签的节点上的标准交叉熵。

3 Experiments

数据集

  

节点分类

  

4 Conclusion

  我们提出了用于学习节点表示的图变换网络。我们的方法将异构图转换为多个新的图,这些图定义的任意边类型和任意长度小于图变换层数的元路径,同时通过对学习的元路径图的卷积学习节点表示。学习到的图结构导致更有效的节点表示,在所有三个基准节点分类的异构图上产生最先进的性能。由于我们的图形转换层可以与现有的gnn结合,我们相信我们的框架为gnn开辟了新的方法,可以自己优化图结构,从而根据数据和任务操作卷积,而无需任何人工努力。有趣的未来方向包括研究GT层与不同类别的gnn结合,而不是GCNs的疗效。此外,由于一些异构图数据集最近被研究用于其他网络分析任务,如链路预测[36,41]和图分类[17,24],将我们的gtn应用于其他任务可能是有趣的未来方向。

posted @   别关注我了,私信我吧  阅读(3459)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
Live2D
点击右上角即可分享
微信分享提示