上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 64 下一页
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79971488 希望大家直接到上面的网址去查看代码,下面是本人的笔记 到目前为止,我们一直在使用numpy来自己编写神经网络。现在我们将一步步的使用深度学习的框架来很容易的构建属于自己的神经网络 阅读全文
posted @ 2019-04-01 16:53 慢行厚积 阅读(590) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79907419 希望大家直接到上面的网址去查看代码,下面是本人的笔记 我们需要做以下几件事: 1. 分割数据集 2. 优化梯度下降算法: 2.1 不使用任何优化算法 2.2 mini-batch 阅读全文
posted @ 2019-04-01 16:53 慢行厚积 阅读(785) 评论(0) 推荐(0) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 本章介绍的nn模块是构建与autograd之上的神经网络模块 除了nn外还会介绍神经网络中常用的工具,比如优化器optim、初始化init 阅读全文
posted @ 2019-04-01 16:51 慢行厚积 阅读(4327) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79971488 使用TensorFlow构建你的第一个神经网络 我们将会使用TensorFlow构建一个神经网络,需要记住的是实现模型需要做以下两个步骤: 1. 创建计算图 2. 运行计算图 该 阅读全文
posted @ 2019-03-31 16:00 慢行厚积 阅读(1674) 评论(0) 推荐(0) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 Tensor Tensor可以是一个数(标量)、一维数组(向量)、二维数组(矩阵)或更高维的数组(高阶数据) Tensor和numpy的n 阅读全文
posted @ 2019-03-31 15:59 慢行厚积 阅读(8216) 评论(0) 推荐(0) 编辑
摘要: tensor分为头信息区(Tensor)和存储区(Storage) 信息区主要保存着tensor的形状(size)、步长(stride)、数据类型(type)等信息,而真正的数据则保存成连续数组,存储在存储区 因为数据动辄成千上万,因此信息区元素占用内存较少,主要内存占用取决于tensor中元素的数 阅读全文
posted @ 2019-03-31 15:59 慢行厚积 阅读(6814) 评论(1) 推荐(2) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 torch.autograd就是为了方便用户使用,专门开发的一套自动求导引擎,她能够根据输入和前向传播过程自动构建计算图,并执行反向传播 阅读全文
posted @ 2019-03-31 15:58 慢行厚积 阅读(4683) 评论(0) 推荐(1) 编辑
摘要: 在学习的过程中遇见了一个问题,就是当使用backward()反向传播时传入参数的问题: 这里的backward()中为什么需要传入参数Variable(t.ones(1, 10))呢?没有传入就会报错: 这个错误的意思就是梯度只能为标量(即一个数)输出隐式地创建 比如有一个例子是: 1) 返回: 此 阅读全文
posted @ 2019-03-28 17:15 慢行厚积 阅读(21571) 评论(3) 推荐(4) 编辑
摘要: 参考:https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py TRAINING A CLASSIFIER 到这里,你已经知道怎么定义神 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(2523) 评论(2) 推荐(0) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 pytorch的设计遵循tensor-> variable(autograd)-> nn.Module三个由低到高的抽象层次,分别代表高维 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(1588) 评论(0) 推荐(0) 编辑
上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 64 下一页