随笔分类 - pytorch基础
pytorch深度学习实践
摘要:近期一直在用torch的分布式训练,本文调研了目前Pytorch的分布式并行训练常使用DDP模式(Distributed DataParallell ),从基本概念,初始化启动,以及第三方的分布式训练框架展开介绍。最后以一个Bert情感分类给出完整的代码例子:torch-ddp-examples。
阅读全文
摘要:一、WGAN实战 import torch from torch import nn, optim, autograd import numpy as np import visdom from torch.nn import functional as F from matplotlib impo
阅读全文
摘要:一、代码 import torch from torch import nn, optim, autograd import numpy as np import visdom from torch.nn import functional as F from matplotlib import p
阅读全文
摘要:pytorch保存模型非常简单,主要有两种方法: 只保存参数;(官方推荐) 保存整个模型 (结构+参数)。 由于保存整个模型将耗费大量的存储,故官方推荐只保存参数,然后在建好模型的基础上加载。本文介绍两种方法,但只就第一种方法进行举例详解。 一、只保存参数 1.保存 一般地,采用一条语句即可保存参数
阅读全文
摘要:一、自动编码器 1、AE.py import torch from torch import nn class AE(nn.Module): def __init__(self): super(AE, self).__init__() #[b, 784] => [b, 20] self.encode
阅读全文
摘要:pytorch循环神经网络
阅读全文
摘要:pytorch卷积神经网络
阅读全文
摘要:pytorch动量与学习率衰减
阅读全文
摘要:pytorch正则化
阅读全文
摘要:MLP的visdom可视化
阅读全文
摘要:MNIST打印准确率和损失
阅读全文
摘要:激活函数与GPU加速
阅读全文
摘要:多层感知机全连接曾
阅读全文
摘要:交叉熵和softmax
阅读全文
摘要:链式法则与函数优化
阅读全文
摘要:单层感知机与多层感知机梯度
阅读全文
摘要:激活函数与loss函数的梯度
阅读全文
摘要:pytorch的where与gather
阅读全文
摘要:pytorch统计属性
阅读全文