上一页 1 ··· 32 33 34 35 36 37 38 39 40 ··· 73 下一页
摘要: 1 导入实验需要的包 import torch import torch.nn as nn import torch.nn.functional import torch.optim as optim import torch.utils.data.dataloader as dataloader 阅读全文
posted @ 2021-12-21 22:33 图神经网络 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 提出思路 自编码器最初提出是基于降维的思想,但是当隐层节点比输入节点多时,自编码器就会失去自动学习样本特征的能力,此时就需要对隐层节点进行一定的约束,与降噪自编码器的出发点一样,高维而稀疏的表达是好的,因此提出对隐层节点进行一些稀疏性的限值。稀疏自编码器就是在传统自编码器的基础上通过增加一些稀疏性约 阅读全文
posted @ 2021-12-21 22:06 图神经网络 阅读(316) 评论(0) 推荐(0) 编辑
摘要: 参考文档 自编码器及相关变种算法简介 四种类型自编码器AutoEncoders理解及代码实现 堆栈自编码器 Part1 加载项目需要的包 import torch from torch import nn, optim, functional, utils import torchvision fr 阅读全文
posted @ 2021-12-21 21:01 图神经网络 阅读(278) 评论(0) 推荐(0) 编辑
摘要: #导入实验需要的包 import torch import torch.nn as nn import torch.utils.data as Data import torchvision import matplotlib.pyplot as plt from mpl_toolkits.mplo 阅读全文
posted @ 2021-12-21 15:04 图神经网络 阅读(95) 评论(0) 推荐(0) 编辑
摘要: 函数简介 torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现(tensor变成variable之后才能进行反向传播求梯度?用变量.backward()进行反向传播之后,var.grad中保存了var的梯度) x = Variab 阅读全文
posted @ 2021-12-20 09:50 图神经网络 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 前言 dataloader 本质是一个可迭代对象,使用 iter() 访问,不能使用 next() 访问; 使用 iter(dataloader) 返回的是一个迭代器,然后可以使用 next 访问; 也可以使用 `for inputs, labels in dataloaders` 进行可迭代对象的 阅读全文
posted @ 2021-12-20 09:17 图神经网络 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 1 import torch from torch import nn,optim from torch.autograd import Variable from torchvision import transforms,datasets from torch.utils.data import 阅读全文
posted @ 2021-12-19 20:06 图神经网络 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 计算过程参考:《机器学习——主成分分析(PCA)》 代码: X = np.array([[-1, -2], [-1, 0], [0, 0], [2, 1], [0, 1]]) print(X) def PCA(X,n): #转置 X = np.transpose(X) #求特征的均值 X_mean 阅读全文
posted @ 2021-12-18 22:21 图神经网络 阅读(80) 评论(0) 推荐(0) 编辑
摘要: 结论 >>> a = np.array([[1, 2], [3, 4]]) >>> np.mean(a) # 将上面二维矩阵的每个元素相加除以元素个数(求平均数) 2.5 >>> np.mean(a, axis=0) # axis=0,计算每一列的均值 array([ 2., 3.]) >>> np 阅读全文
posted @ 2021-12-18 21:13 图神经网络 阅读(104) 评论(0) 推荐(0) 编辑
摘要: part1/经典款论文 1. KDD 2016,Node2vec 经典必读第一篇,平衡同质性和结构性 《node2vec: Scalable Feature Learning for Networks》 2. WWW2015,LINE 1阶+2阶相似度 《Line: Large-scale info 阅读全文
posted @ 2021-12-18 11:11 图神经网络 阅读(878) 评论(0) 推荐(0) 编辑
上一页 1 ··· 32 33 34 35 36 37 38 39 40 ··· 73 下一页
Live2D