随笔分类 - Pytorch从入门到放弃
摘要:0503-autograd实战之线性回归 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、用 variable 实现线性回归(autograd 实战) import torch as t from torch.a
阅读全文
摘要:0502-计算图 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、手动计算梯度 torch 的 autograd 的底层采用了计算图,它是一种特殊的有向无环图,记录算子和变量的关系,如下图所示: 其中 MUL 和
阅读全文
摘要:这篇文章的内容到这里就差不多了,这次以基础的内容为主,简单的梳理一下,首先我们上次知道了构建神经网络的两个步骤:搭建子模块和拼接子模块。而这次就是学习各个子模块的使用。从比较重要的卷积层开始,学习了1d 2d 3d 卷积到底在干什么事情,采用了动图的方式进行演示,卷积运算其实就是通过不同的卷积核去提取不同的特征。然后学习了 Pytorch 的二维卷积运算及转置卷积运算,并进行了对比和分析了代码上如何实现卷积操作。
第二块是池化运算和池化层的学习,关于池化,一般和卷积一块使用,目的是收集和合并卷积提取的特征,去除一些冗余,分为最大池化和平均池化。然后学习了全连接层,这个比较简单,不用多说,最后是非线性激活函数,比较常用的 sigmoid,tanh, relu等。
今天的内容就到这里,模型模块基本上到这里也差不多了,根据我们的那个步骤:数据模块 -> 模型模块 -> 损失函数 -> 优化器 -> 迭代训练。所以下一次开始学习损失函数模块,但是在学习损失函数之前,还得先看一下常用的权重初始化方法,这个对于模型来说也是非常重要的。所以下一次整理权值初始化和损失函数。
阅读全文
摘要:上面笼统的介绍了如何利用 nn 这个工具箱去搭建一个神经网络,但是只给出了一个流程,很多细节我们还没有详细解释,但这已经足够了。
下一篇文章我们就将详细介绍 nn 工具箱的各种细节方面的东西,等你看完下一篇文章如果再跳回来看这篇文章,相信定会有醍醐灌顶之效。
阅读全文
摘要:本篇文章介绍了 torch 的一个核心——autograd,其中 autograd 中的 variable 和 Tensor 都属于 torch 中的基础数据结构,variable 封装了 Tensor ,拥有着和 Tensor 几乎一样的接口,并且提供了自动求导技术。autograd 是 torch 的自动微分引擎,采用动态计算图的技术,可以更高效的计算导数。
这篇文章说实话是有点偏难的,可以多看几遍,尤其是对于还没有写过实际项目的小白,不过相信有前面几个小项目练手,以及最后一个线性回归的小 demo,相信你差也不差的能看懂,但这都不要紧,在未来的项目实战中,你将会对 autograd 的体会越来越深刻。
阅读全文
摘要:- `Tensors`并`Variables`已合并
- `Tensors`支持0维(标量)
- 弃用`volatile`标签
- `dtypes`,`devices`和`NumPy`风格的创作功能
- 编写`device-agnostic`代码
- `nn.Module`中子模块名称,参数和缓冲区中的新边界约束
阅读全文
摘要:这篇文章通过手写数字问题的引入,算是对深度网络模型做了一个简单的介绍。
接下来也将通过torch解决手写数字问题,两者映照,将会让你更加了解torch实现一个深度模型解决实际问题的流程。
阅读全文
摘要:Pytorch从入门到放弃 一、前置基础(选看) 0101-Python从入门到放弃(目录) 0102-人工智能(目录) 0103-numpy模块 0104-DeepLearning-图像识别(cnn 流程架构) 二、Pytorch 引入 本章更多的是对 torch 的发展史的简单阐述。 0201-
阅读全文