随笔分类 - pytorch学习
2022.3.8开始学习
摘要:https://blog.csdn.net/gzq0723/article/details/105885088 也有大佬说一开始梯度爆炸是正常的 https://zhuanlan.zhihu.com/p/79887894 混合精度计算(Mixed Precision),并介绍一款Nvidia开发的基
阅读全文
摘要:tensor 是 PyTorch 中的完美组件,但是构建神经网络还远远不够,我们需要能够构建计算图的 tensor,这就是 Variable。Variable 是对 tensor 的封装,操作和 tensor 是一样的, 但是每个 Variabel都有三个属性,Variable 中的 tensor本
阅读全文
摘要:fvcore是一个易用的工具。fvcore是Facebook开源的一个轻量级的核心库,它提供了各种计算机视觉框架中常见且基本的功能。其中就包括了统计模型的参数以及FLOPs等。 pip install fvcore FLOPS:注意全大写,是floating point operations per
阅读全文
摘要:内积或点积的数学符号一般用一个点表示,例如 ,但如果在高维空间(大于等于三维),通常用括号 <> 表示,例如 最近多次看到这个符号就查了查。 转载于:https://www.cnblogs.com/robinchen/p/11047540.html
阅读全文
摘要:1.opencv默认读取的是BGR格式,opencv默认存储图片的是numpy.ndarray格式,并且尺寸为H×W×C 2.PIL默认读取的是RGB格式,PIL默认存储图片的是PIL.JpegImagePlugin.JpegImageFile格式,并且尺寸为H×W×C 3.skimage默认读取的
阅读全文
摘要:1.pytorch中的transform没有加噪声和模糊的数据增强方法,结合网上现有的代码整合了一个小工具: https://blog.csdn.net/qq_17614495/article/details/112960601 2。在做深度学习时,数据的处理是重中之重。在做自己的数据集时,可能会面
阅读全文
摘要:import torch x = torch.randn(3,1,4,1,2) a = x.squeeze(dim=1) # 成员函数删除第二维度 print(a.shape) b = torch.squeeze(x, dim=1) # torch自带函数删除第二维度 print(b.shape)
阅读全文
摘要:import torch from torchvision import transforms toPIL = transforms.ToPILImage() #这个函数可以将张量转为PIL图片,由小数转为0-255之间的像素值 img = torch.randn(3,128,64) pic = t
阅读全文
摘要:举例: >>> x = torch.randn(2, 3, 5) >>> x.size() torch.Size([2, 3, 5]) >>> x.permute(2, 0, 1).size() torch.Size([5, 2, 3]) https://zhuanlan.zhihu.com/p/7
阅读全文
摘要:dataset = SimpleDataset() dataloader = DataLoader(dataset, num_workers=2, batch_size=3) for batch in dataloader: print(batch) 主进程初始化 dataloader = Data
阅读全文
摘要:这个函数是用来求tensor中某个dim的前k大或者前k小的值以及对应的index。 用法 torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor) input:一个tens
阅读全文
摘要:https://bbs.cvmart.net/articles/5441 https://www.aiuai.cn/aifarm1967.html
阅读全文
摘要:import torch import numpy as np a = np.array([1, 2, 3]) t = torch.as_tensor(a) print(t) t[0] = -1 a 将numpy转为tensor也可以使用t = torch.from_numpy(a)
阅读全文
摘要:https://blog.csdn.net/zhenaoxi1077/article/details/80953227 一、数据加载 在Pytorch 中,数据加载可以通过自己定义的数据集对象来实现。数据集对象被抽象为Dataset类,实现自己定义的数据集需要继承Dataset,并实现两个Pytho
阅读全文
摘要:一、点乘 点乘都是broadcast的,可以用torch.mul(a, b)实现,也可以直接用*实现。 矩阵点乘,就是矩阵各个对应元素相乘,要求矩阵必须维数相等,即MxN维矩阵乘以MxN维矩阵 。 二、矩阵乘 当a, b维度不一致时,会自动填充到相同维度相点乘。 矩阵相乘有torch.mm和torc
阅读全文
摘要:torch.randn_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) -> Tensor 返回一个和输入大小相同的张量,其由
阅读全文
摘要:函数用途:对输入图像以最外围像素为对称轴,做四周的轴对称镜像填充。 填充顺序:左->右->上->下 对于一个4维的Tensor,当只指定一个padding参数时,则表示对四周采用相同的填充行数。 https://blog.csdn.net/LionZYT/article/details/120181
阅读全文
摘要:一、lstm 这个链接讲lstm,非常详细!https://towardsdatascience.com/illustrated-guide-to-lstms-and-gru-s-a-step-by-step-explanation-44e9eb85bf21 Sigmoid 层输出 0 到 1 之间
阅读全文
摘要:model.train()和model.eval()用法 1.1 model.train() model.train()的作用是启用 Batch Normalization 和 Dropout。 如果模型中有BN层(Batch Normalization)和Dropout,需要在训练时添加model
阅读全文