摘要: 无监督-DEEP GRAPH INFOMAX 标签:图神经网络、无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一个图节点 阅读全文
posted @ 2021-11-29 12:21 owo_owo 阅读(886) 评论(1) 推荐(1) 编辑
摘要: 自监督-Contrastive Multi-View Representation Learning on Graphs 标签:自监督,图神经网络 动机 GNN 大多数需要依赖于任务的标签来学习丰富的表示,尽管如此,与视频、图像、文本和音频等更常见形式相比,给图打上标签是一项挑战 最近关于通过最大化 阅读全文
posted @ 2021-11-26 22:38 owo_owo 阅读(493) 评论(1) 推荐(1) 编辑
摘要: 图扩散-Diffusion Improves Graph Learning 标签:图神经网络、扩散技术 动机 图卷积的核心就是图神经网络,就是在一跳邻居节点上进行消息传递,这些消息在每个节点聚合,形成下一层的嵌入。虽然神经网络确实利用了更深层的高阶邻域,但将每一层的消息限制在一跳邻居似乎是随意的武断 阅读全文
posted @ 2021-11-24 22:23 owo_owo 阅读(7108) 评论(1) 推荐(1) 编辑
摘要: 自监督-Iterative Graph Self-distillation 标签:自监督、图神经、知识蒸馏、图学习、对比学习 动机 在各个领域图是普遍存在,虽然最近的图神经网络 GNN 在节点表示和图表示方面有很大的进展,其都是通过聚合邻居信息结合自身信息并通过非线性变换,但是这些网络的一个关键是需 阅读全文
posted @ 2021-11-22 11:55 owo_owo 阅读(359) 评论(1) 推荐(1) 编辑
摘要: 线性分类-感知机模型 思想 错误驱动 假设数据 $ {(x_i,y_i)}_{i = 1}{N}、x_i \in Rp、y \in {-1, 1}$ 对于感知机模型: \[ f(x) = sign(w^Tx) \quad x\in R^p, w \in R^p \\ sing(a) = \begin 阅读全文
posted @ 2021-11-21 21:43 owo_owo 阅读(86) 评论(1) 推荐(1) 编辑
摘要: 线性分类-逻辑回归 思想 线性回归模型是通过对数据的拟合得到一个线性方程,实现的是对连续目标的 \(X\) ,预测 \(Y\),其范围在 \([+\infty, -\infty]\) 之间;而对于线性分类问题我们是要得到 $ {0, 1},或者 [0, 1]$ ,那如何通过线性回归到线性分类函数上呢 阅读全文
posted @ 2021-11-21 18:08 owo_owo 阅读(92) 评论(1) 推荐(1) 编辑
摘要: 自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling 标签:自监督、图神经网络、对比学习 动机 在真实世界中许多数据大部分是有没有标签的,而打上标签的是需要很大花费的 现存的对比学习 阅读全文
posted @ 2021-11-19 11:50 owo_owo 阅读(292) 评论(1) 推荐(1) 编辑
摘要: 知识蒸馏--Distilling the Knowledge in a Neural Network 动机 在普遍的训练当中,经过 softmax 后都是最大化正标签的概率,最小化负标签的概率。但是这样训练的效果导致了正标签的概率输出越来越接近 1, 负标签的概率越来越接近 0, 使得原本的负标签的 阅读全文
posted @ 2021-11-18 12:12 owo_owo 阅读(405) 评论(2) 推荐(2) 编辑
摘要: 对比学习-Towards Robust Graph Contrastive Learning 标签:鲁棒性、对比学习、图神经 动机 提升对抗攻击中的鲁棒性,并扩展到自监督对比学习方法中 贡献 提出了图鲁棒对比学习 (GROC),将对抗性转换整合到图形对比学习框架中,这是一种完全自监督的图算法,旨在实 阅读全文
posted @ 2021-11-15 10:09 owo_owo 阅读(507) 评论(1) 推荐(1) 编辑
摘要: PCA 解决过拟合的三个方法: 提升数据量 正则化 降维 直接降维(直接选择某些重要的特征) 线性降维(PCA, MDS) 非线性降维(流形,Isomap,LLE) 数据维度过多会导致数据稀疏性增大,形成维度灾难 思想 数据从原来的坐标系转换到新的坐标系,新坐标系的选择是由数据本身决定的。第一个新坐 阅读全文
posted @ 2021-11-12 16:37 owo_owo 阅读(143) 评论(1) 推荐(1) 编辑