摘要:实用特征:可观察且可量化 L2损失:平方误差 均方误差 (MSE) :指的是每个样本的平均平方损失。要计算 MSE,请求出各个样本的所有平方损失之和,然后除以样本数量 虽然 MSE 常用于机器学习,但它既不是唯一实用的损失函数,也不是适用于所有情形的最佳损失函数。
阅读全文
摘要:conv,BN,Linear conv:https://blog.csdn.net/Strive_For_Future/article/details/83240232 1)conv2d.weight shape=[输出channels,输入channels,kernel_size,kernel_s
阅读全文
摘要:1. CPU tensor转GPU tensor: cpu_imgs.cuda()2. GPU tensor 转CPU tensor: gpu_imgs.cpu()3. numpy转为CPU tensor: torch.from_numpy( imgs )4.CPU tensor转为numpy数据:
阅读全文
摘要:torch.catimport torch a=torch.randn(3,4) #随机生成一个shape(3,4)的tensort b=torch.randn(2,4) #随机生成一个shape(2,4)的tensor print("a:") print(a) print("b:") print(
阅读全文
摘要:import torch.nn as nn import torch import torch.nn.functional as F class FP_Conv2d(nn.Module): def __init__(self, input_channels, output_channels, ker
阅读全文
摘要:1B(byte)=8bit B:字节 bit:位(计算机表示数据最小的单位) B与bit 数据存储是以“字节”(Byte)为单位,数据传输大多是以“位”(bit,又名“比特”)为单位,一个位就代表一个0或1(即二进制),每8个位(bit,简写为b)组成一个字节(Byte,简写为B),是最小一级的信息
阅读全文
摘要:一、第一种方式(可以配合一些条件判断语句动态添加) 模板——torch.nn.Sequential()的一个对象.add_module(name, module)。 name:某层次的名字;module:需要添加的子模块,如卷积、激活函数等等。 添加子模块到当前模块中。 可以通过 name 属性来访
阅读全文
摘要:self参数 self指的是实例Instance本身,在Python类中规定,函数的第一个参数是实例对象本身,并且约定俗成,把其名字写为self, 也就是说,类中的方法的第一个参数一定要是self,而且不能省略。关于self有三点是很重要的: self指的是实例本身,而不是类 self可以用this
阅读全文
摘要:在pytorch中转置用的函数就只有这两个 transpose() permute() transpose() torch.transpose(input, dim0, dim1, out=None) → Tensor 函数返回输入矩阵input的转置。交换维度dim0和dim1 参数: input
阅读全文
摘要:二维卷积可以处理二维数据 nn.Conv2d(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True))参数: in_channel: 输入数据的通道数,例R
阅读全文
摘要:描述 Python 字典(Dictionary) copy() 函数返回一个字典的浅复制。 语法 copy()方法语法: dict.copy() 返回值 返回一个字典的浅复制。 实例 以下实例展示了 copy()函数的使用方法: dict1 = {'Name': 'Zara', 'Age': 7};
阅读全文
摘要:python的.item()用于将字典中每对key和value组成一个元组,并把这些元组放在列表中返回例如person={‘name’:‘lizhong’,‘age’:‘26’,‘city’:‘BeiJing’,‘blog’:‘www.jb51.net’} for key,value in pers
阅读全文
摘要:hasattr() 函数用于判断对象是否包含对应的属性。 hasattr 语法: hasattr(object, name) object -- 对象。 name -- 字符串,属性名。 如果对象有该属性返回 True,否则返回 False。 class Coordinate(): x = 10 y
阅读全文
摘要:torch.init https://pytorch.org/docs/stable/nn.html#torch-nn-init 1. 均匀分布 torch.nn.init.uniform_(tensor, a=0, b=1)服从~U(a,b)U(a, b)U(a,b) 2. 正太分布 torch.
阅读全文
摘要:model.modules()和model.children()均为迭代器,model.modules()会遍历model中所有的子层,而model.children()仅会遍历当前层。 # model.modules()类似于 [[1, 2], 3],其遍历结果为: [[1, 2], 3], [1
阅读全文
摘要:只保存参数信息 加载 checkpoint = torch.load(opt.resume) model.load_state_dict(checkpoint) 保存 torch.save(self.state_dict(),file_path) 这而只保存了参数信息,读取时也只有参数信息,模型结构
阅读全文
摘要:pytorch两个基本对象:Tensor(张量)和Variable(变量) 其中,tensor不能反向传播,variable可以反向传播。 tensor的算术运算和选取操作与numpy一样,一次你numpy相似的运算操作都可以迁移过来。 Variable variable是一种可以不断变化的变量,符
阅读全文
摘要:在pytorch中,torch.nn.Module模块中的state_dict变量存放训练过程中需要学习的权重和偏执系数,state_dict作为python的字典对象将每一层的参数映射成tensor张量,需要注意的是torch.nn.Module模块中的state_dict只包含卷积层和全连接层的
阅读全文
摘要:model.train() :启用 BatchNormalization 和 Dropout model.eval() :不启用 BatchNormalization 和 Dropout 把模型model.eval()作用是为了固定BN和dropout层,使得偏置参数不随着发生变化。因为当batch
阅读全文
摘要:1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param for name, param in model.named_parameters(): print(name,param.requires_gra
阅读全文
摘要:Pytorch | Pytorch框架中模型和数据的gpu和cpu模式: model.to(device), model.cuda(), model.cpu(), DataParallel 转载自:https://blog.csdn.net/iLOVEJohnny/article/details/1
阅读全文
摘要:sudo mv PyCharm 2019.1 /usr/mv: 无法获取'PyCharm' 的文件状态(stat): 没有那个文件或目录mv: 无法获取'2019.1' 的文件状态(stat): 没有那个文件或目录 原因:PyCharm 2019.1這個目錄名存在空格, 把空格刪去即可
阅读全文
摘要:參考鏈接:https://github.com/wszqkzqk/deepin-wine-ubuntu (1) git clone https://gitee.com/wszqkzqk/deepin-wine-for-ubuntu.git (2) 解压后切换到解压文件目录,在终端中运行(授予可执行权
阅读全文
摘要:ResNet的核心内容之一,即“Deeper Bottleneck Architectures”(简称DBA),一言概之,bottleneck是一种特殊的残差结构。 Resnet论文里的原图如上(即Bottleneck V1 ),左图是普通的残差结构,右图是瓶颈结构。具体而言,block的输入和输出
阅读全文
摘要:union SELECT DISTINCT `JGH` FROM `金课50`UNION 会自动去重SELECT DISTINCT `JGH` FROM `水课50`; SELECT DISTINCT `JGH` FROM `金课50`UNION ALL 不会自动去重SELECT DISTINCT
阅读全文
摘要:线性回归变量选择方法 输入(回归)(Enter (Regression))一种变量选择过程,其中一个块中的所有变量在一个步骤中输入。Stepwise(逐步)在每一步,不在方程中的具有 F 的概率最小的自变量(对因变量贡献最大)被选入(如果该概率足够小)。对于已在回归方程中的变量,如果它们的 F 概率
阅读全文
摘要:参考链接:https://jingyan.baidu.com/article/597a064395087c312b524313.html 在回归分析模型 Y=β0+β1X+ε(一元线性回归模型)中,Y是被解释变量,就称为因变量。X是解释变量,称为自变量。表示为:因变量Y随自变量X的变化而变化。协变量
阅读全文