02 2022 档案

摘要:在60分钟闪电战中,我们像你展示了如何加载数据,通过为我们定义的nn.Module的子类的model提供数据,在训练集上训练模型,在测试集上测试模型。为了了解发生了什么,我们在模型训练时打印了一些统计数据,以观察训练是否正在进行。但是,我们可以做的比这更好:PyTorch和TensorBoard的集 阅读全文
posted @ 2022-02-15 11:01 R-DeepH 阅读(1652) 评论(0) 推荐(0) 编辑
摘要:该教程是在notebook上运行的,而不是脚本,下载notebook文件。 PyTorch提供了设计优雅的模块和类:torch.nn, torch.optim, Dataset, DataLoader,以创建和训练神经网络。为了充分利用其功能,并根据问题进行自定义,需要充分理解它们做的是什么。为了提 阅读全文
posted @ 2022-02-14 10:59 R-DeepH 阅读(1072) 评论(0) 推荐(0) 编辑
摘要:注意:这是旧版本的PyTorch教程的一部分。你可以在Learn the Basics查看最新的开始目录。 该教程通过几个独立的例子介绍了PyTorch的基本概念。 核心是:PyTorch提供了两个主要的特性: 一个n维的Tensor,与Numpy相似但可以在GPU上运行 构建和训练神经网络的自动微 阅读全文
posted @ 2022-02-11 10:28 R-DeepH 阅读(220) 评论(0) 推荐(0) 编辑
摘要:本节我们将会看到如何保存模型状态、加载和运行模型预测 import torch import torchvision.models as models 保存和加载模型权重 PyTorch模型在一个称为 state_dict 的内部状态字典内保存了学习的参数,可以通过 torch.save实现这一过程 阅读全文
posted @ 2022-02-10 14:37 R-DeepH 阅读(339) 评论(0) 推荐(0) 编辑
摘要:既然已经有模型和数据了,是时候在数据上优化模型参数来训练、验证和测试它了。模型训练是一个迭代过程;在每一次迭代(epoch),模型会作出一个预测,计算其预测误差(loss),收集误差关于模型参数的导数(如前一节所述),并使用梯度优化这些参数。关于这一过程的详细信息,可以观看backpropagati 阅读全文
posted @ 2022-02-09 09:37 R-DeepH 阅读(479) 评论(0) 推荐(0) 编辑
摘要:训练神经网络时,最常用的算法就是反向传播。在该算法中,参数(模型权重)会根据损失函数关于对应参数的梯度进行调整。 为了计算这些梯度,PyTorch内置了名为 torch.autograd 的微分引擎。它支持任意计算图的自动梯度计算。 一个最简单的单层神经网络,输入 x,参数 w 和 b,某个损失函数 阅读全文
posted @ 2022-02-08 09:22 R-DeepH 阅读(635) 评论(0) 推荐(0) 编辑
摘要:神经网络由对数据进行操作的layers/modules组成。torch.nn 命名空间提供了所有你需要的构建块,用于构建你自己的神经网络。PyTorch的每一个module都继承自nn.Module。神经网络本身也是包含其它module(layer)的module。这种嵌套结构允许轻松构建和管理复杂 阅读全文
posted @ 2022-02-07 14:18 R-DeepH 阅读(307) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示