GraphMAE阅读笔记
GraphMAE阅读
引言
在摘要里,本论文提出了自监督学习有着巨大的潜力
自监督学习又分为对比学习和生成学习
目前比较成功的是对比学习,因为在对比学习中,有高质量的数据增强以及可以通过额外的策略来稳定训练过程
而对于生成式的自监督学习,它们旨在重建数据本身的特征和信息,对图来说,图自动编码器(Graph Autoencoder, GAE)可以重建图的结构信息或者节点特征,但是目前基于图自动编码器的发展远远落后于对比学习
所以,本文提出了GraphMAE,GraphMAE发现仅仅重建节点特征便能够使得模型学到充分的信息,从而有助于下游分类等任务。
GraphMAE的主要改进包括:
- 带掩码的节点特征重建
- 使用放缩余弦误差
- 带重掩码的解码过程
GraphMAE的结构
1.带有MASK的节点特征重建
对于一个图
从图中采样部分节点,用一个掩码标识[MASK]来替换它们的输入节点特征,记经过mask之后的节点特征矩阵为,那么
2.带重掩码的解码过程
传统的decoder的表现力较差,导致encoder得到的节点表示H与输入特征几乎相同,所以GraphMAE采用了单层图神经网络作为decoder,GNN decoder可以根据一个节点周围的节点分布恢复其自身的输入特征,可以帮助解码器学习高层次的信息
GraphMAE采用一种新的重掩码的方式,用另一个掩码标识[DMASK],再次替换最初采样到的节点的表示。即
这样就可以迫使从邻近的未遮盖的节点中重构它的输入特征
3.使用放缩余弦误差
之前的图自动编码器大多数采用均方误差作为损失函数,但是均方误差在训练中最小化到接近零或者很难优化,不足以进行有意义的特征重建。所以GraphMAE采用了余弦误差,同时引入了放缩因子来进一步改进余弦误差。当放缩因子大于1时误差能够更快的衰减到0,从而能够调整难度不同样本的权重,放缩余弦误差的定义为:
放缩因子也是一个在不同数据集上可调整的超参数
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!