上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 80 下一页
摘要: 0603-常用的神经网络层 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、图像相关层 图像相关层主要包括卷积层(Conv)、池化层(Pool)等 这些层在实际的使用中也分为一维(1D)、二维(2D)和三维(3D 阅读全文
posted @ 2021-04-25 09:02 B站-水论文的程序猿 阅读(1387) 评论(0) 推荐(0) 编辑
摘要: 0404-Tensor的持久化和向量化作 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、持久化 和sklearn中的持久化一样,保存一个模型或者特有的数据为pkl数据。但是tensor在加载数据的时候还可以把g 阅读全文
posted @ 2021-04-24 17:41 B站-水论文的程序猿 阅读(837) 评论(0) 推荐(0) 编辑
摘要: 0402-Tensor和Numpy的区别 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 由于tensor和ndarray具有很高的相似性,并且两者相互转化需要的开销很小。但是由于ndarray出现时间较早,相比较t 阅读全文
posted @ 2021-04-24 17:41 B站-水论文的程序猿 阅读(3440) 评论(1) 推荐(0) 编辑
摘要: 0602-nn.Module pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、nn.Module torch.nn 的核心数据结构就是 Module,它可以看做是某一层,也可以看做是整个神经网络。最常见的做法就是 阅读全文
posted @ 2021-04-24 17:41 B站-水论文的程序猿 阅读(1093) 评论(0) 推荐(0) 编辑
摘要: 0403-Tensor内部存储结构 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、Tensor内部存储结构 tensor的数据存储结构如上图所示,它分为信息区(Tensor)和存储区(Storage),信息区主 阅读全文
posted @ 2021-04-24 17:41 B站-水论文的程序猿 阅读(804) 评论(0) 推荐(0) 编辑
摘要: 0503-autograd实战之线性回归 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、用 variable 实现线性回归(autograd 实战) import torch as t from torch.a 阅读全文
posted @ 2021-04-24 17:39 B站-水论文的程序猿 阅读(818) 评论(0) 推荐(0) 编辑
摘要: 0502-计算图 pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html 一、手动计算梯度 torch 的 autograd 的底层采用了计算图,它是一种特殊的有向无环图,记录算子和变量的关系,如下图所示: 其中 MUL 和 阅读全文
posted @ 2021-04-24 17:38 B站-水论文的程序猿 阅读(1108) 评论(0) 推荐(1) 编辑
摘要: 这篇文章的内容到这里就差不多了,这次以基础的内容为主,简单的梳理一下,首先我们上次知道了构建神经网络的两个步骤:搭建子模块和拼接子模块。而这次就是学习各个子模块的使用。从比较重要的卷积层开始,学习了1d 2d 3d 卷积到底在干什么事情,采用了动图的方式进行演示,卷积运算其实就是通过不同的卷积核去提取不同的特征。然后学习了 Pytorch 的二维卷积运算及转置卷积运算,并进行了对比和分析了代码上如何实现卷积操作。 第二块是池化运算和池化层的学习,关于池化,一般和卷积一块使用,目的是收集和合并卷积提取的特征,去除一些冗余,分为最大池化和平均池化。然后学习了全连接层,这个比较简单,不用多说,最后是非线性激活函数,比较常用的 sigmoid,tanh, relu等。 今天的内容就到这里,模型模块基本上到这里也差不多了,根据我们的那个步骤:数据模块 -> 模型模块 -> 损失函数 -> 优化器 -> 迭代训练。所以下一次开始学习损失函数模块,但是在学习损失函数之前,还得先看一下常用的权重初始化方法,这个对于模型来说也是非常重要的。所以下一次整理权值初始化和损失函数。 阅读全文
posted @ 2021-04-23 11:31 B站-水论文的程序猿 阅读(1190) 评论(0) 推荐(1) 编辑
摘要: 上面笼统的介绍了如何利用 nn 这个工具箱去搭建一个神经网络,但是只给出了一个流程,很多细节我们还没有详细解释,但这已经足够了。 下一篇文章我们就将详细介绍 nn 工具箱的各种细节方面的东西,等你看完下一篇文章如果再跳回来看这篇文章,相信定会有醍醐灌顶之效。 阅读全文
posted @ 2021-04-22 10:29 B站-水论文的程序猿 阅读(1936) 评论(0) 推荐(1) 编辑
摘要: 本篇文章介绍了 torch 的一个核心——autograd,其中 autograd 中的 variable 和 Tensor 都属于 torch 中的基础数据结构,variable 封装了 Tensor ,拥有着和 Tensor 几乎一样的接口,并且提供了自动求导技术。autograd 是 torch 的自动微分引擎,采用动态计算图的技术,可以更高效的计算导数。 这篇文章说实话是有点偏难的,可以多看几遍,尤其是对于还没有写过实际项目的小白,不过相信有前面几个小项目练手,以及最后一个线性回归的小 demo,相信你差也不差的能看懂,但这都不要紧,在未来的项目实战中,你将会对 autograd 的体会越来越深刻。 阅读全文
posted @ 2021-04-21 17:26 B站-水论文的程序猿 阅读(1544) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 80 下一页