摘要:torch.catimport torch a=torch.randn(3,4) #随机生成一个shape(3,4)的tensort b=torch.randn(2,4) #随机生成一个shape(2,4)的tensor print("a:") print(a) print("b:") print(
阅读全文
摘要:一、第一种方式(可以配合一些条件判断语句动态添加) 模板——torch.nn.Sequential()的一个对象.add_module(name, module)。 name:某层次的名字;module:需要添加的子模块,如卷积、激活函数等等。 添加子模块到当前模块中。 可以通过 name 属性来访
阅读全文
摘要:在pytorch中转置用的函数就只有这两个 transpose() permute() transpose() torch.transpose(input, dim0, dim1, out=None) → Tensor 函数返回输入矩阵input的转置。交换维度dim0和dim1 参数: input
阅读全文
摘要:二维卷积可以处理二维数据 nn.Conv2d(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True))参数: in_channel: 输入数据的通道数,例R
阅读全文
摘要:python的.item()用于将字典中每对key和value组成一个元组,并把这些元组放在列表中返回例如person={‘name’:‘lizhong’,‘age’:‘26’,‘city’:‘BeiJing’,‘blog’:‘www.jb51.net’} for key,value in pers
阅读全文
摘要:torch.init https://pytorch.org/docs/stable/nn.html#torch-nn-init 1. 均匀分布 torch.nn.init.uniform_(tensor, a=0, b=1)服从~U(a,b)U(a, b)U(a,b) 2. 正太分布 torch.
阅读全文
摘要:model.modules()和model.children()均为迭代器,model.modules()会遍历model中所有的子层,而model.children()仅会遍历当前层。 # model.modules()类似于 [[1, 2], 3],其遍历结果为: [[1, 2], 3], [1
阅读全文
摘要:只保存参数信息 加载 checkpoint = torch.load(opt.resume) model.load_state_dict(checkpoint) 保存 torch.save(self.state_dict(),file_path) 这而只保存了参数信息,读取时也只有参数信息,模型结构
阅读全文
摘要:pytorch两个基本对象:Tensor(张量)和Variable(变量) 其中,tensor不能反向传播,variable可以反向传播。 tensor的算术运算和选取操作与numpy一样,一次你numpy相似的运算操作都可以迁移过来。 Variable variable是一种可以不断变化的变量,符
阅读全文
摘要:在pytorch中,torch.nn.Module模块中的state_dict变量存放训练过程中需要学习的权重和偏执系数,state_dict作为python的字典对象将每一层的参数映射成tensor张量,需要注意的是torch.nn.Module模块中的state_dict只包含卷积层和全连接层的
阅读全文
摘要:model.train() :启用 BatchNormalization 和 Dropout model.eval() :不启用 BatchNormalization 和 Dropout 把模型model.eval()作用是为了固定BN和dropout层,使得偏置参数不随着发生变化。因为当batch
阅读全文
摘要:1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param for name, param in model.named_parameters(): print(name,param.requires_gra
阅读全文
摘要:Pytorch | Pytorch框架中模型和数据的gpu和cpu模式: model.to(device), model.cuda(), model.cpu(), DataParallel 转载自:https://blog.csdn.net/iLOVEJohnny/article/details/1
阅读全文
摘要:我们知道,在对图像执行卷积操作时,如果不对图像边缘进行填充,卷积核将无法到达图像边缘的像素(3*3取卷积4*4,则边缘无法到达),而且卷积前后图像的尺寸也会发生变化,这会造成许多麻烦。 因此现在各大深度学习框架的卷积层实现上基本都配备了padding操作,以保证图像输入输出前后的尺寸大小不变。例如,
阅读全文
摘要:torch.expand() 参数为传入指定shape,在原shape数据上进行高维拓维,根据维度值进行重复赋值。https://blog.csdn.net/weixin_42670810/article/details/114278285 torch.nn.BatchNorm2d 函数 什么是ba
阅读全文
摘要:PIL:使用python自带图像处理库读取出来的图片格式 numpy:使用python-opencv库读取出来的图片格式 tensor:pytorch中训练时所采取的向量格式(当然也可以说图片) a = torch.randn(3,496,740) c = a.numpy() print('c',c
阅读全文
摘要:1.torchvision.transforms是pytorch中的图像预处理包一般用Compose把多个步骤整合到一起,比如说 transforms.Compose([transforms.CenterCrop(10), transforms.ToTensor(),]) 2.transforms中
阅读全文
摘要:win 10下安装pytorch 要先安装Anaconda (会自带python3.7),再利用conda 来下载pytorch1.下载安装Anaconda: https://www.anaconda.com/ 右上角download 选择Windows 3.7版本的 进行运行安装即可 Add An
阅读全文
摘要:H3:[1,1] #第一个1表示照片数量,第二个1表示0~9的一个数字 one-hot(上图)就没有1<2<3的大小关系了 #编码方式 欧式距离 线性很难识别现实的数字问题,如1的字体、倾斜度等 P(1|x)=0.8 #给定x ,label(也就是y)为1的概率为0.8 argmax(pred) #
阅读全文
摘要:import torch import time a = torch.randn(10000, 1000)#要有空格 b = torch.randn(1000, 2000)#1000行,2000列的矩阵 t0 = time.time() c = torch.matmul(a, b)#CPU模式的矩阵
阅读全文