论文解读(GTN)《Graph Transformer Networks》
论文信息
论文标题:Graph Transformer Networks
论文作者:Seongjun Yun, Minbyul Jeong, Raehyun Kim, Jaewoo Kang, Hyunwoo J. Kim
论文来源:2019, NeurIPS
论文地址:download
论文代码:download
1 Introduction
GNNs 基于的理论假设:
-
- 图结构固定(fixed)
- 同质性(homogeneous)
2 Method
2.1 Preliminaries
GTN 框架的一个输入是具有不同类型的节点和边的多图结构。设 和 分别是节点类型和边类型的集合。输入图可以看作是一个异质图 ,其中 是节点集, 是可观察到的边集,还有一个节点类型映射函数 ,一个边类型映射函数 。每个节点 都有一个节点类型,即 。同样地,对于 , 。当 和 时,它就成为了一个标准图。在本文中,考虑 的情况。设 表示节点数,即 。异质图可以用 一组邻接矩阵 表示, 其中 , 是一个邻接矩阵,当从 到 有 类型的边时, 非零,可被简写成一个张量 。特征矩阵 ,意味着每个节点的输入特征为 维。
Meta-Path
由 表示,是异质图 上由异构的边连接的一条路径,即 ,其中 表示元路径中的一条 类型的边。它定义了节点 和 之间的一个复合关系 ,其中 表示关系 和 的组成。给定复合关系 或边类型序列 ,元路径 的邻接矩阵 是通过邻接矩阵的乘法得到的:
元路径的概念包含了多跳连接,在我们的框架中,新的图结构由邻接矩阵表示。例如,元路径 Author-Paper-Conference (APC) 可以表示为 ,通过 和 的多重生成邻接矩阵 。
Graph Convolutional network (GCN)
标准GCN :
其他形式:
2.2 Meta-Path Generation
Fig. 1 中 Graph Transformer (GT) 层新元路径图生成:
Graph Transformer (GT) Layer 有两个组成部分:
-
- 首先,GT 层从候选邻接矩阵 中选择两个图结构 和 ;
- 其次,它通过组成两个关系(即两个邻接矩阵的矩阵乘法, )来学习一个新的图结构;
邻接矩阵 的选择方式如下:
其中, 是卷积层, 是 的参数。即 是将 和权重参数 送去卷积层卷积得到的。
每一个 可以表示成:
其中, 是边的类型集合, 是第 种边类型 在第 层的权重。
以 Fig.1 为例:
有 个 ,即对应 层矩阵: , 。
得到 和 后,通过两个邻接矩阵的矩阵乘法 得到新的元路径邻接矩阵。为了提高数值稳定性,通过该矩阵的度矩阵将归一化, 即 。
现在,我们需要检查GTN是否可以学习关于边类型和路径长度的任意元路径。任意长度 元路径的邻接矩阵可以表示为:
其中 表示元路径的邻接矩阵, 是边的类型集合, 是第 个 GT 层上边类型 的权重。当 不是 one-hot 向量时, 可以看作是所有长度为 元路径邻接矩阵的加权和。因此,一个 个GT层的堆栈可以学习任意长度的 元路径图结构,如 Fig. 2 所示。这种结构的一个问 题是,添加 GT 层总是增加元路径的长度,而不允许使用原始的边。在一些应用中,长元路径和短元路径都很重要。为了学习包含原始边 的短元路径和长元路径 (如果全部按照图中的生成,则每一条元路径都是基于原始边所生成的,也就忽略了原始边的本身的特征),我们 在 中加入单位矩阵 ,即 。这个技巧允许 GTN 学习任何长度的元路径,当 个GT层堆叠时,元路径的长度可达 。
2.3 Graph Transformer Networks
为了同时生成多种类型的元路径,Fig. 1 中 卷积的输出通道设置为 。然后,GT 层产生一组元路径,中间邻接矩阵 和 成为邻接 张量 和 ,如 Fig.2 所示。通过多个不同的图结构学习不同的节点表示是有益的。在 个 GT 层堆叠之后,将 GCN 应用于元 路径张量 的每个通道,并将多个节点的表示连接起来:
其中, 为连接运算符, 表示通道数, 表示张量 的第 个通道的邻接矩阵, 是 的度矩阵, 是跨通道共享的可训练权重矩阵, 是一个特征矩阵。
包含来自 个不同的元路径图的节点表示,该图具有可变性、长度最多为 。它用于顶部的节点分类。损失函数是具有真实标签的节点上的标准交叉熵。
3 Experiments
数据集
节点分类
4 Conclusion
我们提出了用于学习节点表示的图变换网络。我们的方法将异构图转换为多个新的图,这些图定义的任意边类型和任意长度小于图变换层数的元路径,同时通过对学习的元路径图的卷积学习节点表示。学习到的图结构导致更有效的节点表示,在所有三个基准节点分类的异构图上产生最先进的性能。由于我们的图形转换层可以与现有的gnn结合,我们相信我们的框架为gnn开辟了新的方法,可以自己优化图结构,从而根据数据和任务操作卷积,而无需任何人工努力。有趣的未来方向包括研究GT层与不同类别的gnn结合,而不是GCNs的疗效。此外,由于一些异构图数据集最近被研究用于其他网络分析任务,如链路预测[36,41]和图分类[17,24],将我们的gtn应用于其他任务可能是有趣的未来方向。
因上求缘,果上努力~~~~ 作者:别关注我了,私信我吧,转载请注明原文链接:https://www.cnblogs.com/BlairGrowing/p/16248221.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)