10 2021 档案

摘要:攻击防御-Backdoor Attacks to Graph Neural Networks 标签:后门攻击、图分类 动机 基于 GNN 的图分类对抗攻击很大程度上尚未进行探索,现有的对抗环境下 GNN 的对抗研究大多数集中在节点分类而不是图分类,节点分类的目的是为每个节点预测一个标签,而图分类任务 阅读全文
posted @ 2021-10-26 22:39 owo_owo 阅读(541) 评论(2) 推荐(1)
摘要:信息量 信息量是通过概率来定义的:如果一件事情的概率很低,那么它的信息量就很大;反之,如果一件事情的概率很高,它的信息量就很低。简而言之,概率小的事件信息量大,因此信息量 \(I(x)\) 可以定义如下: \[ I(x) := log(\frac{1}{p(x)}) \] 信息熵/熵 表示随机变量不 阅读全文
posted @ 2021-10-20 12:04 owo_owo 阅读(743) 评论(1) 推荐(0)
摘要:预训练-Graph Contrastive Learning with Adaptive Augmentation 标签:预训练、图神经网络、对比学习 动机 首先,无论是在结构域还是属性域进行简单的数据增强,如 DGI 中的特征移动,都不足以生成不同的邻域,对于节点,特别是在节点特征稀疏的情况下,导 阅读全文
posted @ 2021-10-14 11:44 owo_owo 阅读(332) 评论(0) 推荐(2)
摘要:预训练-GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training 标签:预训练、神经网络 动机 迄今为止,大多数关于图的表示学习工作都集中在单个图或一组固定的图的表示学习上,能够转移到域外数据和任务的工作非常有限 图表示学 阅读全文
posted @ 2021-10-13 22:56 owo_owo 阅读(546) 评论(0) 推荐(0)
摘要:搜索与图论 排列数字 #版本一 n = int(input()) v = [] st = [0] * (n + 1) def dfs(cnt: int): if cnt == n + 1: for tmp in v: print(tmp, end = ' ') print() else: for i 阅读全文
posted @ 2021-10-09 09:59 owo_owo 阅读(55) 评论(0) 推荐(0)
摘要:预训练-Graph Contrastive Learning with Augmentations 标签:预训练、图神经网络 动机 对于特定任务的标签可能非常稀缺,利用图神经网络训练出来的结果用于进行下游任务时不是很好 真实世界的图数据往往是巨大的,即使是基准数据集也变得越来越大 针对用于下游任务的 阅读全文
posted @ 2021-10-05 10:11 owo_owo 阅读(582) 评论(0) 推荐(0)
摘要:基础算法模板 tire树 #版本一: class Tire: def __init__(self): self.tire = [0, {}] def insert(self, word): p = self.tire for char in word: if char not in p[1]: p[ 阅读全文
posted @ 2021-10-03 23:02 owo_owo 阅读(56) 评论(0) 推荐(0)