随笔分类 -  pytorch学习

2022.3.8开始学习
摘要:https://blog.csdn.net/gzq0723/article/details/105885088 也有大佬说一开始梯度爆炸是正常的 https://zhuanlan.zhihu.com/p/79887894 混合精度计算(Mixed Precision),并介绍一款Nvidia开发的基 阅读全文
posted @ 2022-04-19 14:59 Tomorrow1126 阅读(746) 评论(0) 推荐(0) 编辑
摘要:tensor 是 PyTorch 中的完美组件,但是构建神经网络还远远不够,我们需要能够构建计算图的 tensor,这就是 Variable。Variable 是对 tensor 的封装,操作和 tensor 是一样的, 但是每个 Variabel都有三个属性,Variable 中的 tensor本 阅读全文
posted @ 2022-04-18 16:24 Tomorrow1126 阅读(43) 评论(0) 推荐(0) 编辑
摘要:fvcore是一个易用的工具。fvcore是Facebook开源的一个轻量级的核心库,它提供了各种计算机视觉框架中常见且基本的功能。其中就包括了统计模型的参数以及FLOPs等。 pip install fvcore FLOPS:注意全大写,是floating point operations per 阅读全文
posted @ 2022-04-15 14:04 Tomorrow1126 阅读(637) 评论(0) 推荐(1) 编辑
摘要:内积或点积的数学符号一般用一个点表示,例如 ,但如果在高维空间(大于等于三维),通常用括号 <> 表示,例如 最近多次看到这个符号就查了查。 转载于:https://www.cnblogs.com/robinchen/p/11047540.html 阅读全文
posted @ 2022-04-06 17:02 Tomorrow1126 阅读(1065) 评论(0) 推荐(0) 编辑
摘要:1.opencv默认读取的是BGR格式,opencv默认存储图片的是numpy.ndarray格式,并且尺寸为H×W×C 2.PIL默认读取的是RGB格式,PIL默认存储图片的是PIL.JpegImagePlugin.JpegImageFile格式,并且尺寸为H×W×C 3.skimage默认读取的 阅读全文
posted @ 2022-04-06 11:41 Tomorrow1126 阅读(180) 评论(0) 推荐(0) 编辑
摘要:1.pytorch中的transform没有加噪声和模糊的数据增强方法,结合网上现有的代码整合了一个小工具: https://blog.csdn.net/qq_17614495/article/details/112960601 2。在做深度学习时,数据的处理是重中之重。在做自己的数据集时,可能会面 阅读全文
posted @ 2022-04-05 13:40 Tomorrow1126 阅读(185) 评论(0) 推荐(0) 编辑
摘要:import torch x = torch.randn(3,1,4,1,2) a = x.squeeze(dim=1) # 成员函数删除第二维度 print(a.shape) b = torch.squeeze(x, dim=1) # torch自带函数删除第二维度 print(b.shape) 阅读全文
posted @ 2022-03-30 19:04 Tomorrow1126 阅读(1176) 评论(0) 推荐(0) 编辑
摘要:import torch from torchvision import transforms toPIL = transforms.ToPILImage() #这个函数可以将张量转为PIL图片,由小数转为0-255之间的像素值 img = torch.randn(3,128,64) pic = t 阅读全文
posted @ 2022-03-30 10:23 Tomorrow1126 阅读(1873) 评论(0) 推荐(0) 编辑
摘要:举例: >>> x = torch.randn(2, 3, 5) >>> x.size() torch.Size([2, 3, 5]) >>> x.permute(2, 0, 1).size() torch.Size([5, 2, 3]) https://zhuanlan.zhihu.com/p/7 阅读全文
posted @ 2022-03-29 11:19 Tomorrow1126 阅读(83) 评论(0) 推荐(0) 编辑
摘要:dataset = SimpleDataset() dataloader = DataLoader(dataset, num_workers=2, batch_size=3) for batch in dataloader: print(batch) 主进程初始化 dataloader = Data 阅读全文
posted @ 2022-03-25 17:28 Tomorrow1126 阅读(1186) 评论(0) 推荐(0) 编辑
摘要:这个函数是用来求tensor中某个dim的前k大或者前k小的值以及对应的index。 用法 torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor) input:一个tens 阅读全文
posted @ 2022-03-24 10:37 Tomorrow1126 阅读(2551) 评论(0) 推荐(0) 编辑
摘要:https://bbs.cvmart.net/articles/5441 https://www.aiuai.cn/aifarm1967.html 阅读全文
posted @ 2022-03-22 14:17 Tomorrow1126 阅读(324) 评论(0) 推荐(0) 编辑
摘要:import torch import numpy as np a = np.array([1, 2, 3]) t = torch.as_tensor(a) print(t) t[0] = -1 a 将numpy转为tensor也可以使用t = torch.from_numpy(a) 阅读全文
posted @ 2022-03-18 18:53 Tomorrow1126 阅读(311) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/zhenaoxi1077/article/details/80953227 一、数据加载 在Pytorch 中,数据加载可以通过自己定义的数据集对象来实现。数据集对象被抽象为Dataset类,实现自己定义的数据集需要继承Dataset,并实现两个Pytho 阅读全文
posted @ 2022-03-17 10:31 Tomorrow1126 阅读(410) 评论(0) 推荐(1) 编辑
摘要:一、点乘 点乘都是broadcast的,可以用torch.mul(a, b)实现,也可以直接用*实现。 矩阵点乘,就是矩阵各个对应元素相乘,要求矩阵必须维数相等,即MxN维矩阵乘以MxN维矩阵 。 二、矩阵乘 当a, b维度不一致时,会自动填充到相同维度相点乘。 矩阵相乘有torch.mm和torc 阅读全文
posted @ 2022-03-14 16:52 Tomorrow1126 阅读(1336) 评论(0) 推荐(0) 编辑
摘要:torch.randn_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) -> Tensor 返回一个和输入大小相同的张量,其由 阅读全文
posted @ 2022-03-14 11:38 Tomorrow1126 阅读(5641) 评论(0) 推荐(0) 编辑
摘要:函数用途:对输入图像以最外围像素为对称轴,做四周的轴对称镜像填充。 填充顺序:左->右->上->下 对于一个4维的Tensor,当只指定一个padding参数时,则表示对四周采用相同的填充行数。 https://blog.csdn.net/LionZYT/article/details/120181 阅读全文
posted @ 2022-03-14 10:15 Tomorrow1126 阅读(148) 评论(0) 推荐(0) 编辑
摘要:一、lstm 这个链接讲lstm,非常详细!https://towardsdatascience.com/illustrated-guide-to-lstms-and-gru-s-a-step-by-step-explanation-44e9eb85bf21 Sigmoid 层输出 0 到 1 之间 阅读全文
posted @ 2022-03-11 15:24 Tomorrow1126 阅读(70) 评论(0) 推荐(0) 编辑
摘要:model.train()和model.eval()用法 1.1 model.train() model.train()的作用是启用 Batch Normalization 和 Dropout。 如果模型中有BN层(Batch Normalization)和Dropout,需要在训练时添加model 阅读全文
posted @ 2022-03-09 17:21 Tomorrow1126 阅读(1454) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示