随笔分类 - 机器(深度)学习 / pyTorch
torch.max
摘要:二维张量(矩阵): 假设你有一个形状为 [m, n] 的二维张量(可以想象成一个矩阵,有 m 行和 n 列): dim=0 指的是行的方向(从上到下)。如果你在一个函数中指定 dim=0,那么操作将沿着每一列进行,对每一列中的行元素进行处理。 dim=1 指的是列的方向(从左到右)。如果你在一个函数
阅读全文
torch.cpu
摘要:将张量从GPU移到CPU上 import torch # 创建一个张量并将其放在GPU上 tensor_gpu = torch.randn((3, 3)).cuda() # 将张量从GPU移动到CPU tensor_cpu = tensor_gpu.cpu()
阅读全文
torch.detach
摘要:在深度学习中,通常使用自动微分(Autograd)来计算梯度,以便进行反向传播和优化。 在这个过程中,PyTorch会构建一个计算图,用于跟踪张量之间的计算关系。这个计算图是由各个张量之间的运算所构成的,以便在进行反向传播时计算梯度。 .detach()方法的作用是创建一个新的张量,与原始张量共享相
阅读全文
自动微分
摘要:张量的梯度信息 张量的梯度信息是指张量相对于某个或多个变量的导数。梯度表示了函数在某一点的变化率,它是一个向量,其中每个元素对应于函数相对于输入变量的偏导数 在深度学习中,我们通常使用梯度来更新模型参数,以便最小化或最大化某个损失函数。梯度下降是一种常见的优化算法,它使用梯度信息来沿着损失函数的负梯
阅读全文
torch.add等
摘要:数学运算: a = torch.tensor([[1, 2, 3], [4, 5, 6]]) b = torch.tensor([[7, 8, 9], [10, 11, 12]]) tensor([[1, 2, 3], [4, 5, 6]]) tensor([[ 7, 8, 9], [10, 11,
阅读全文
torch.cat
摘要:拼接tensor torch.cat(tensors, dim): 沿指定维度拼接张量。 tensor1 = torch.tensor([[1, 2, 3], [4, 5, 6]]) tensor2 = torch.tensor([[7, 8, 9], [10, 11, 12]]) # dim=0
阅读全文
torch.cuda
摘要:什么时候需要将计算放置在GPU,cuda上 计算量大的时候,有torch的时候 什么数据放在GPU 在 PyTorch 和其他深度学习框架中,通常只有模型的参数和输入到模型的数据(张量)需要被移动到 GPU 上 当从数据excel pandas中提取文本数据并通过分词器处理时,处理后的张量才需要被移
阅读全文
torch.jit
摘要:保存模型有两种方式,方式不同,在调用模型的时候也不同 我更建议用torch.jit。。。这样不需要在写模型的参数 torch.save 保存模型: import torch import torch.nn as nn # 假设 model 是你的 PyTorch 模型 class SimpleMod
阅读全文
torch.tensor
摘要:创建张量: torch.tensor(data): 从数据中创建张量。用列表创建,numpy创建 维度只看[ ] # 一维张量 一维张量是指只有一个轴的张量,没有行列之分 data_1d = [1, 2, 3] tensor_1d = torch.tensor(data_1d)结果tensor([1
阅读全文
Torch张量是什么
摘要:定义: 在PyTorch中,张量(tensor)是一种类似于多维数组的数据结构,它是PyTorch的核心数据类型。和numpy的计算方式不同。 张量可以具有不同的维度,例如标量(0维张量,类似于一个数字)、向量(1维张量,类似于一维数组)、矩阵(2维张量,类似于二维数组)以及更高维度的数组。 张量的
阅读全文
torch和cuda 的关系
摘要:他们一定要匹配吗? 我认为是的(错)。没关系。版本不匹配换就完了 都给报错了 False 但是,我cuda11.1 torch1.6.0 也是可以运行没问题 虽然不同版本的CUDA和PyTorch有可能会出现兼容性问题,但并不是每个版本都会出现不兼容的情况。在有些情况下,即使版本不对应,也可以运行。
阅读全文