07 2020 档案
发表于 2020-07-23 17:06阅读:2323评论:0推荐:0
摘要:该代码为transforms的反函数,实现从tensor转成PIL image,用于在框架的enumerate迭代中的中间图片可视化。代码思想如下,可以根据具体情况和需要进行修改def transform_inv...
阅读全文 »
发表于 2020-07-23 12:09阅读:5450评论:0推荐:0
摘要:数据增强transforms是pytorch中用于数据增强的模块,首先再简单描述下数据增强的概念:数据增强又称为数据增广,数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型根据泛化能力举个非常生动形象的例...
阅读全文 »
发表于 2020-07-23 12:03阅读:647评论:0推荐:0
摘要:transforms上篇博文《Pytorch:Dataloader和Dataset以及搭建数据部分的步骤》提到transforms是pytorch数据模块的预处理部分。transforms来自torchvisio...
阅读全文 »
发表于 2020-07-21 00:08阅读:1803评论:0推荐:0
摘要:接下来几篇博文开始,介绍pytorch五大模块中的数据模块,所有概念都会以第四代人民币1元和100元纸币的二分类问题为例来具体介绍,在实例中明白相关知识。 数据模块的结构体系 数据模块分为数据的收集、划分、读取、预处理四部分,其中收集和划分是人工可以设定,而读取部分和预处理部分,pytorch有
阅读全文 »
发表于 2020-07-19 19:30阅读:1454评论:0推荐:1
摘要:filter函数filter(self, /, *args, **kwargs) # 过滤filter() 函数用于过滤序列,过滤掉不符合条件的元素,返回由符合条件元素组成的新列表。该接收两个参数,第一个...
阅读全文 »
发表于 2020-07-16 23:11阅读:3570评论:0推荐:1
摘要:逻辑回归logistic regression逻辑回归是线性的二分类模型(与线性回归的区别:线性回归是回归问题,而逻辑回归是线性回归+激活函数sigmoid=分类问题)模型表达式:f(x)称为sigmoid函数,...
阅读全文 »
发表于 2020-07-16 23:03阅读:559评论:0推荐:0
摘要:下面给出模型训练步骤的思路,在用pytorch(也包括其他框架)编写代码进行网络编写时,建议都按照这几个步骤来进行,形成一个清晰的思路各模块简要说明数据:涉及数据的收集、划分、读取及预处理等模型:根据任务的复杂程...
阅读全文 »
发表于 2020-07-16 14:23阅读:444评论:0推荐:0
摘要:神经网络离不开大量的梯度求导,若是交给人为计算,这将是十分耗时的一件事情。在pytorch中,autograd自动求导系统能有效解决这一问题。torch.autogradtorch.autograd.backwa...
阅读全文 »
发表于 2020-07-16 13:53阅读:1296评论:0推荐:0
摘要:主要可以通过两个角度来说明,但其实表述的意思也是异曲同工低显存跑大batchsize的角度这种模式可以让梯度玩出更多花样,比如说梯度累加(gradient accumulation)传统的训练函数,一个batch...
阅读全文 »
发表于 2020-07-16 00:00阅读:1312评论:0推荐:0
摘要:计算图computational graph表示方法计算图是用来描述运算的有向无环图计算图有两个主要元素:结点(node)和边(edge)结点表示数据,如向量,矩阵,张量边表示运算,如加减乘除卷积等 计算图不仅使...
阅读全文 »
发表于 2020-07-15 17:52阅读:379评论:0推荐:0
摘要:线性回归Linear Regression线性回归是分析一个变量与另外一个(多个)变量之间关系的方法因变量:y 自变量:x 关系:线性 y=wx+b 分析:求解w,b 求解步骤:1....
阅读全文 »
发表于 2020-07-15 15:56阅读:750评论:0推荐:0
摘要:PyTorch中,一般函数加下划线代表直接在原来的 Tensor 上修改,即in-place操作
阅读全文 »
发表于 2020-07-15 11:50阅读:15856评论:2推荐:2
摘要:Robert Long对消融研究(或消融实验)定义:通常用于神经网络,尤其是相对复杂的神经网络,如R-CNN。我们的想法是通过删除部分网络并研究网络的性能来了解网络“消融”的原始含义是手术切除身体组织。ablat...
阅读全文 »
发表于 2020-07-14 23:38阅读:1458评论:0推荐:0
摘要:张量操作一、张量的拼接与切分1.1 torch.cat()功能:将张量按维度dim进行拼接tensors:张量序列dim:要拼接的维度1.2 torch.stack()功能:在新创建的维度的上进行拼接tensor...
阅读全文 »
发表于 2020-07-13 23:21阅读:3016评论:0推荐:0
摘要:Tensor 概念张量的数学概念:张量是一个多维数组,它是标量、向量、矩阵的高位扩展张量在pytorch中的概念:tensor之前是和pytorch早期版本中的variable一起使用的。variable是tor...
阅读全文 »
发表于 2020-07-12 21:52阅读:1274评论:1推荐:0
摘要:多核学习既可以用在多任务学习,也可以用在多视图学习,也有研究同时对多任务和多视图同时采用多核的,目前已经有通用多任务多核学习方法。如果将多核用在多任务学习,相当于不同任务共享子空间的同时,还有各自特...
阅读全文 »
发表于 2020-07-10 10:27阅读:1487评论:0推荐:0
摘要:正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,称作L1正则化 和 L2正则化,或者 L1范数 和 L2范数。L1正则化和L2正则化可以看做是损...
阅读全文 »
发表于 2020-07-06 22:34阅读:3761评论:0推荐:1
摘要:临时使用pip install -i https://pypi.tuna.tsinghua.edu.cn/simple package-name注意,simple 不能少, 是 https 而不是 http设为默...
阅读全文 »
发表于 2020-07-04 23:25阅读:2612评论:0推荐:0
摘要:进入https://download.pytorch.org/whl/torch_stable.html选择自己对应版本的pytorch或torchvision等等文件下载即可 ...
阅读全文 »