随笔分类 - PyTorch学习
摘要:数据的读取方式 1、如果数据量比较小,直接读入内存,通过data[i]获取 2、如果数据量很大,我们不能直接读入内存,比如数据有很多文件,我们可以将文件名存储到一个文件,通过names[i]获取文件名,然后再去读取数据 dataloader加载器 多线程的错误问题 在linux多线程是通过fork创
阅读全文
摘要:行是样本,列是feather特征: 激活函数: 损失函数和优化器: 写代码步骤: np.loadtxt()方法: numpy.loadtxt(fname, dtype=float, comments='#', delimiter=None, converters=None, skiprows=0,
阅读全文
摘要:注意torch.Tensor()和torch.tensor()的区别 点击查看代码 import torch import torch.nn.functional as F x_data = torch.Tensor([[1.0], [2.0], [3.0]]) y_data = torch.Ten
阅读全文
摘要:下面是损失函数 下面是优化器 下面通过model.parameters()可以获得model中所有的参数 点击查看代码 import torch from torch import device x_data = torch.tensor([[1.0], [2.0], [3.0]]) y_data
阅读全文
摘要:从这张图片,可以看出。不管我们有多少层,都可以化简成最简形式。我们添加的层就没有意义。 所以我们要对每一层的输出做非线性变换,增加模型的复杂程度,使它没法化简 反向传播的流程 pytorch的tensor数据结构 看到代码,要能把计算图构建出来,而不是简单的乘除运算 在上面这张图,w是tensor数
阅读全文
摘要:随机梯度下降可以跨越鞍点 对每一个样本的梯度进行更新 点击查看代码 import numpy as np import matplotlib.pyplot as plt x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = 1.0 def for
阅读全文
摘要:梯度下降算法只能保证找到的是局部最优,不是全局最优 平常我们经过大量实验,发现局部最优点不是很多,所以可以使用梯度下降算法。 但是还要提防鞍点 下面进行实现梯度下降算法 点击查看代码 import numpy as np import matplotlib.pyplot as plt x_data
阅读全文
摘要:学习参考视频是B站刘二大人:https://www.bilibili.com/video/BV1Y7411d7Ys/?p=1&vd_source=7251363c91f375c2f19fef8bb1beab83 1、一般监督学习的步骤:准备数据集 -> 选择模型 -> 训练 -> 应用 2、数据集划
阅读全文