随笔分类 - 编程问题
摘要:https://blog.51cto.com/u_15274944/2924165
阅读全文
摘要:Example: class load_data(Dataset): def __init__(self, dataset): self.x = np.loadtxt('data/{}.txt'.format(dataset), dtype=float) self.y = np.loadtxt('d
阅读全文
摘要:class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)参数:params (iterable) – 待优化参数的iterable或者是定义了参数组的dictlr (float, 可
阅读全文
摘要:随机梯度下降法 $\theta_{t} \leftarrow \theta_{t-1}-\alpha g_{t}$ Code: optimzer = torch.optim.SGD(model.parameters(),lr = 0.001) 权重衰减 $\theta_{t} \leftarrow(
阅读全文
摘要:1、import from numpy / list 方法:torch.from_numpy(ndarray) 常见的初始化有torch.tensor和torch.Tensor 区别: tensor():通过numpy 或 list 的现有数据初始化 Tensor(): 1、接收数据的维度(,)sh
阅读全文
摘要:torch.flatten() torch.flatten(x) 等于 torch.flatten(x,0) 默认将张量拉成一维的向量,也就是说从第一维开始平坦化,torch.flatten(x,1) 代表从第二维开始平坦化。 Example: import torch x=torch.randn(
阅读全文
摘要:Example: import torch import torch.nn.functional as F from torch.nn.modules.module import Module from torch.nn.parameter import Parameter class GraphC
阅读全文
摘要:Example: import torch import torch.nn as nn import torch.nn.functional as F class FCC(nn.Module): def __init__(self,input_dim,hidden_dim,output_dim):
阅读全文
摘要:介绍 pickle是python语言的一个标准模块,安装python后已包含pickle库,不需要单独再安装。 为什么需要序列化和反序列化这一操作呢? 1.便于存储。序列化过程将文本信息转变为二进制数据流。这样就信息就容易存储在硬盘之中,当需要读取文件的时候,从硬盘中读取数据,然后再将其反序列化便可
阅读全文
摘要:https://blog.51cto.com/u_15295099/3147262
阅读全文
摘要:Example:稀疏矩阵乘法 import math import torch import torch.nn.functional as F from torch.nn.parameter import Parameter from torch.nn.modules.module import M
阅读全文
摘要:Example: import torch indices = torch.tensor([[0,1], [0,1]]) values = torch.tensor([2,3]) shape = torch.Size((2,2)) s = torch.sparse.FloatTensor(indic
阅读全文
摘要:Example import torch import torch.nn as nn # 判断模型是在CPU还是GPU上 model = nn.LSTM(input_size=10, hidden_size=4, num_layers=1, batch_first=True) print(next(
阅读全文
摘要:Example: import scipy.sparse as sp import numpy as np import torch adj_matrix = torch.randint(0,2,(4,4)) print(adj_matrix) tensor([[1, 1, 0, 0], [0, 1
阅读全文
摘要:1、均匀分布初始化 torch.nn.init.uniform_(tensor, a=0, b=1) 从均匀分布U(a, b)中采样,初始化张量。 参数: tensor - 需要填充的张量 a - 均匀分布的下界 b - 均匀分布的上界 例子: w = torch.empty(3, 5) nn.in
阅读全文
摘要:1 保存和加载整个模型 torch.save(model_object, 'model.pth') model = torch.load('model.pth') 2 仅保存和加载模型参数 torch.save(model_obj.state_dict(), 'params.pth') model_
阅读全文
摘要:nn.Linear() PyTorch的 nn.Linear() 是用于设置网络中的全连接层的,需要注意在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size],不同于卷积层要求输入输出是四维张量。其用法与形参说明如下: torch.nn.Li
阅读全文
摘要:1、二维矩阵乘法 torch.mm() torch.mm(mat1, mat2, out=None) 其中 $\operatorname{mat} 1 \in \mathbb{R}^{n \times m}, \operatorname{mat} 2 \in \mathbb{R}^{m \times
阅读全文
摘要:这个东西,本质上和nn.BCELoss()没有区别,只是在BCELoss上加了个logits函数(也就是sigmoid函数),例子如下: import torch import torch.nn as nn label = torch.Tensor([1, 1, 0]) pred = torch.T
阅读全文
摘要:有两种方式直接把模型的参数梯度设成 0 : model.zero_grad() optimizer.zero_grad() 如果想要把某一Variable的梯度置为 0,只需用以下语句: Variable.grad.data.zero_()
阅读全文