11 2021 档案

摘要:无监督-DEEP GRAPH INFOMAX 标签:图神经网络、无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一个图节点 阅读全文
posted @ 2021-11-29 12:21 owo_owo 阅读(1076) 评论(1) 推荐(1)
摘要:自监督-Contrastive Multi-View Representation Learning on Graphs 标签:自监督,图神经网络 动机 GNN 大多数需要依赖于任务的标签来学习丰富的表示,尽管如此,与视频、图像、文本和音频等更常见形式相比,给图打上标签是一项挑战 最近关于通过最大化 阅读全文
posted @ 2021-11-26 22:38 owo_owo 阅读(611) 评论(1) 推荐(1)
摘要:图扩散-Diffusion Improves Graph Learning 标签:图神经网络、扩散技术 动机 图卷积的核心就是图神经网络,就是在一跳邻居节点上进行消息传递,这些消息在每个节点聚合,形成下一层的嵌入。虽然神经网络确实利用了更深层的高阶邻域,但将每一层的消息限制在一跳邻居似乎是随意的武断 阅读全文
posted @ 2021-11-24 22:23 owo_owo 阅读(8458) 评论(1) 推荐(1)
摘要:自监督-Iterative Graph Self-distillation 标签:自监督、图神经、知识蒸馏、图学习、对比学习 动机 在各个领域图是普遍存在,虽然最近的图神经网络 GNN 在节点表示和图表示方面有很大的进展,其都是通过聚合邻居信息结合自身信息并通过非线性变换,但是这些网络的一个关键是需 阅读全文
posted @ 2021-11-22 11:55 owo_owo 阅读(484) 评论(1) 推荐(1)
摘要:线性分类-感知机模型 思想 错误驱动 假设数据 $ {(x_i,y_i)}_{i = 1}{N}、x_i \in Rp、y \in {-1, 1}$ 对于感知机模型: \[ f(x) = sign(w^Tx) \quad x\in R^p, w \in R^p \\ sing(a) = \begin 阅读全文
posted @ 2021-11-21 21:43 owo_owo 阅读(117) 评论(1) 推荐(1)
摘要:线性分类-逻辑回归 思想 线性回归模型是通过对数据的拟合得到一个线性方程,实现的是对连续目标的 \(X\) ,预测 \(Y\),其范围在 \([+\infty, -\infty]\) 之间;而对于线性分类问题我们是要得到 $ {0, 1},或者 [0, 1]$ ,那如何通过线性回归到线性分类函数上呢 阅读全文
posted @ 2021-11-21 18:08 owo_owo 阅读(127) 评论(1) 推荐(1)
摘要:自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling 标签:自监督、图神经网络、对比学习 动机 在真实世界中许多数据大部分是有没有标签的,而打上标签的是需要很大花费的 现存的对比学习 阅读全文
posted @ 2021-11-19 11:50 owo_owo 阅读(394) 评论(1) 推荐(1)
摘要:知识蒸馏--Distilling the Knowledge in a Neural Network 动机 在普遍的训练当中,经过 softmax 后都是最大化正标签的概率,最小化负标签的概率。但是这样训练的效果导致了正标签的概率输出越来越接近 1, 负标签的概率越来越接近 0, 使得原本的负标签的 阅读全文
posted @ 2021-11-18 12:12 owo_owo 阅读(500) 评论(2) 推荐(2)
摘要:对比学习-Towards Robust Graph Contrastive Learning 标签:鲁棒性、对比学习、图神经 动机 提升对抗攻击中的鲁棒性,并扩展到自监督对比学习方法中 贡献 提出了图鲁棒对比学习 (GROC),将对抗性转换整合到图形对比学习框架中,这是一种完全自监督的图算法,旨在实 阅读全文
posted @ 2021-11-15 10:09 owo_owo 阅读(603) 评论(1) 推荐(1)
摘要:PCA 解决过拟合的三个方法: 提升数据量 正则化 降维 直接降维(直接选择某些重要的特征) 线性降维(PCA, MDS) 非线性降维(流形,Isomap,LLE) 数据维度过多会导致数据稀疏性增大,形成维度灾难 思想 数据从原来的坐标系转换到新的坐标系,新坐标系的选择是由数据本身决定的。第一个新坐 阅读全文
posted @ 2021-11-12 16:37 owo_owo 阅读(418) 评论(1) 推荐(1)
摘要:预训练-Contrastive Self-supervised Learning for Graph Classification 标签:预训练、图神经网络、对比学习 动机 图分类在真实世界中有广泛的应用,比如一些化学分子和生物相关的研究,但是这些分子结构往往有很多,但是缺少真是标记,用于训练的图数 阅读全文
posted @ 2021-11-08 23:03 owo_owo 阅读(276) 评论(1) 推荐(1)
摘要:线性判别器(LDA) 线性判别器思想:类内小,类间大;通过选择一个投影方向将 \(p\) 维数据进行投影到 一维直接上,并且在这直线可以通过一个阈值进行分类。所以我们要找 \(w\)。 首先我们做以下定义: 数据集 $ {(x_i,y_i)}_{i=1}{N}、x \in Rp、 y \in {+1 阅读全文
posted @ 2021-11-08 21:20 owo_owo 阅读(308) 评论(1) 推荐(1)
摘要:SVM svm 解决的是分类问题,目的是在一个数据集中,找到一个超平面,能将数据集正确的分类 svm 三个重要的东西:间隔、对偶、核函数 最大间隔分类器 假设数据集(data):\(\{x_i, y_i\}_{i = 1}^{N}\quad x_i\in R^p、y_i \in \{+1, -1\} 阅读全文
posted @ 2021-11-03 21:32 owo_owo 阅读(68) 评论(1) 推荐(1)
摘要:最大似然估计 概率 定义 某个事件发生的可能性,通常知道分布规律以及具体参数的情况下,就可以计算出某个事件发生的概率 似然 定义 给定已知数据来拟合模型,或者说给定某一结果,求某一参数值的可能性 似然函数与概率密度函数 设总体分布 \(f(X;\theta)\),\(x1, ...,x_n\) 是从 阅读全文
posted @ 2021-11-01 16:36 owo_owo 阅读(782) 评论(1) 推荐(1)