pytorch学习笔记-week1-基本概念
打算花一两个月的时间了解一下 pytorch,做了一些学习笔记,发博以供备份。
1.pytorch 实现模型训练5大要素
数据:数据读取,数据清洗,进行数据划分和数据预处理
模型:构建模型模块,组建复杂网络,初始化网络参数,定义网络层
损失函数:创建损失函数,设置损失函数超参数,根据不同任务选择合适的损失函数
优化器:使用某种优化器更新参数,管理模型参数,管理多个参数组实现不同学习率,调整学习率
迭代训练:组织以上4个模块进行训练,观察训练效果,绘制 loss/accuracy 曲线,用 tensorboard 进行可视化分析
2.tensor 张量
tensor 是一个多维数组
torch.tensor 的8个属性:
-
data: 被包装的 tensor
-
grad: data 的梯度
-
grad_fn: 创建 tensor 所使用的 function, 是自动求导的关键
-
requires_grad: 是否需要梯度,不是所有的 tensor 都需要计算梯度
-
is_leaf: 是否为叶子结点
-
dtype: tensor 的数据类型
分为9种,共三大类:float (16-bit, 32-bit, 64-bit), integer (unsigned-8-bit, 8-bit, 16-bit, 32-bit, 64-bit), boolean
参数和数据用的最多的是 float-32-bit, label 常用的为 integer-64-bit
-
shape: tensor 的形状
-
device: tensor 所在的设备 (CPU/GPU), GPU 是加速计算的关键
(1)tensor 的创建方法
直接创建:
torch.tensor()
torch.tensor(data, dtype=None, requires_grad=False, pin_memory=False)
- data: 数据,可以是 list,numpy
- dtype: 数据类型,默认与 data 的一致
- device: 所在设备,cuda/cpu
- requires_grad: 是否需要梯度
- pin_memory: 是否存于锁页内存
torch.from_numpy(narray): 创建的 tensor 和原来的 narray 共享内存,修改其中一个,另一个也被修改
根据数值创建 tensor:
torch.zeros()
torch.zeros(*size, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 根据size创建全0张量
- size: 张量的形状
- out: 输出的张量,如果指定了 out,那么
torch.zeros()
返回的张量和 out 指向的是同一个地址 - layout: 内存中布局形式,有 strided,sparse_coo 等。当是稀疏矩阵时,设置为 sparse_coo 可以减少内存占用。
torch.zeros_like()
torch.zeros_like(input, dtype=None, layout=None, device=None, requires_grad=False)
# 根据input形状创建全0张量
torch.ones() 和 torch.ones_like()
torch.full() 和 torch.full_like()
torch,full(size, fill_value, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 创建自定义数值张量
torch.arange()
torch.arange(start=0, end, step=1, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=None)
# 创建等差的一维张量,即向量,区间为[start, end), 其中step为公差
torch.linspace()
torch.linspace(start, end, steps=100, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 创建均分的一维张量,区间为[start, end], 其中step为元素个数
torch.logspace()
torch.logspace(start, end, steps=100, base=10.0, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 创建对数均分的一维张量,区间为[start, end], 其中step为元素个数,base为底
torch.eye()
torch.eye(n,m=None, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 创建单位对角矩阵,其中n为行数,默认为方阵,m为列数
根据概率创建tensor:
torch.normal()
torch.normal(mean, std, *, generator=None, out=None)
'''
生成正太分布,mean为均值,std为标准差
4种模式
1.mean为标量,std为标量,需要设置size,*部分size=(size,)
2.mean为标量,std为张量
3.mean为张量,std为标量
4.mean为张量,std为张量
'''
torch.randn() 和 torch.randn_like()
torch.randn(*size, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 生成标准正态分布,其中size为张量形状
torch.rand() 和 torch.rand_like()
torch.rand(*size, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 在[0, 1)上生成均匀分布
torch.randint() 和 torch.randint_like()
randint(low=0, high, size, *, generator=None, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)
# 在区间[low, high)上生成整数均匀分布,其中size为张量的形状
torch.randperm()
torch.randperm(n, out=None, dtype=torch.int64, layout=torch.strided, device=None, requires_grad=False)
# 生成从0到n-1的随机排序,常用于生成索引,其中n为张量的长度
torch.bernoulli()
torch.bernoulli(input, *, generator=None, out=None)
# 以input为概率,生成伯努利分布
(2)tensor的操作
拼接:
torch.cat()
torch.cat(tensors, dim=0, out=None)
# 将张量按照dim维度进行拼接
# tensors:张量的序列
# dim:要拼接的维度
torch.stack()
torch.stack(tensors, dim=0, out=None)
# 将张量在新创建的dim维度上进行拼接
切分:
torch.chunk()
torch.chunk(input, chunks, dim=0)
# 将张量按照维度dim进行切分,若不能整除,最后一份张量小于其他张量
# 其中chunk为要切的份数,dim表示要切分的维度
torch.split()
torch.split(tensor, split_size_or_sections, dim=0)
# 将张量按照维度dim进行平均切分,可以指定每一个分量的切分长度
# split_size_or_sections: 为int时,表示每一份的长度,如果不能被整除,则最后一份张量小于其他张量;为list时,按照list元素作为每一个分量的长度切分。如果list元素之和不等于切分维度(dim)的值,就会报错
索引:
torch.index_select()
torch.index_select(input, dim, index, out=None)
# 在维度dim上,按照index索引取出数据拼接为张量返回
# index表示要索引书序的序号
torch.mask_select()
torch.mask_select(input, mask, out=None)
# 按照mask中的true进行索引拼接得到一维张量返回
# mask为与input同形状的布尔型张量
变换:
torch.reshape()
torch.reshape(input, shape)
# 变换张量的形状
# 当张量在内存中连续时,返回的张量与原来的共享内存,改变一个也会改变另一个
torch.transpose()
torch.transpose(input, dim0, dim1)
# 交换张量的两个维度
torch.t()
# 二维张量转置
# 对于二维矩阵,等于 torch.transpose(input, dim0, dim1)
torch.squeeze()
torch.squeeze(input, dim=None, out=None)
# 压缩长度为1的维度
# 若dim:设置为None, 则移除所有长度为1的维度, 若指定维度,当且仅当该维度长度为1时可以移除
torch.unsqueeze()
torch.unsqueeze(input, dim)
# 根据dim扩展维度,长度为1
数学运算:
torch.add()
torch.add(input, other, out=None)
torch.add(input, other, *, alpha=1, out=None)
# 逐元素计算 input + alpha * other
# 在深度学习中经常用到先乘后加的操作
torch.addcdiv()
torch.addcdiv(input, tensor1, tensor2, *, value=1, out=None)
# OUTi = INPUTi + value * (TENSOR1i / TENSOR2i)
torch.addcmul()
torch.addcmul(input, tensor1, tensor2, *, value=1, out=None)
# OUTi = INPUTi + value * TENSOR1i * TENSOR2i