PyTorch从入门到放弃(目录)
Pytorch从入门到放弃
一、前置基础(选看)
二、Pytorch 引入
本章更多的是对 torch 的发展史的简单阐述。
三、Pytorch 搭建神经网络流程
本章将会带你站在一个高的角度来看 torch 这个框架,其中细节你可能有些看不懂,但是没关系,后面会把各个细节逐一攻破。
四、Pytorch 的 Tensor 操作
上一章我们通过一些小实例演示了 torch 解决问题的一个流程,但是如果要解决手写数字问题我们可能还需要学些新东西。
所以本章分享则更多的是想让我们更好的利用torch帮我们解决更多的实际问题,而为了解决我们这第一个手写数字分类问题,首先让我们来先了解下torch的一些基础语法和基础方法。
不得不再次申明,由于torch的数据类型和numpy的数据类型有异曲同工之妙,所以此处默认你有numpy的基础,如果你不是很了解numpy的用法,可以查看前置基础中的 Numpy 基础。
五、Pytorch 的 autograd 操作
上一篇文章简单的讲解了 tensor 的使用方法,虽然看起来很多,但还是很不全面的,不过对于接下来各种项目的搭建是足够的,而且一通百通,真遇到一个两个不太会的方法,百度是个好东西。
在使用 torch 搭建一个项目时,就好比在搭建一个房子,而 tensor 就相当于各种原料,对于房子的骨架结构,则更多的需要我们接下来要介绍的东西来实现。
也就是 autograd,autogra 的中文名叫做自动微分,顾名思义,就是让 torch 帮我们自动计算微分,它也是 torch 进行神经网络优化的核心。因此站在神经网络架构中讲,autograd 这个东西能够根据输入和前向传播过程自动构建计算图,并执行反向传播。
注:计算图可以简单的看做网络的架构图,只不过这个“架构图”转载的是各个流程单元的数据信息。
六、Pytorch 的 nn 工具箱
nn 其实就是对 autograd 的又一层封装,为的就是让我们更快地更简单地搭建一个神经网络。
接下来我们将详细讲解 nn 这个工具箱的作用和使用方法,方便我们快速的搭建一个神经网络。
七、Pytorch 中常用的工具
上一章其实已经把 torch 的重要的基础都讲完了,通过这些基础你完全可以搭建一个属于你自己的深度神经网络架构,接下来介绍的工具更多的是辅助作用,但是你也不能不看,因为也很重要,哈哈!
这一章主要介绍三个工具,它们是在数据、可视化和 GPU 加速常用的工具,如果合理地使用这些工具可以极大地提高编码效率哦!
八、Pytorch 实战
前几章已经把 pytorch 的大部分基础知识讲的很详细了,足够我们未来的使用,但是如果你想更加详细的了解 pytorch 的使用方法,推荐去阅读 pytorch 的官方文档, 而不是去看其他作者写的书籍或者博客,因为所有人的文章都不过是对官方文档做了自己的见解罢了。
接下来我们将给大家讲解一个又一个项目实战,通过项目去深入并记忆一个个知识点。