随笔分类 -  PyTorch

深度学习-卷积神经网络
摘要:参考深度学习框架pytorch:入门和实践一书第六章 以深度学习框架PyTorch一书的学习-第六章-实战指南为前提 在pytorch中Debug pytorch作为一个动态图框架,与ipdb结合能为调试过程带来便捷 对tensorflow等静态图来说,使用python接口定义计算图,然后使用c++ 阅读全文
posted @ 2019-04-17 16:42 慢行厚积 阅读(9926) 评论(1) 推荐(1) 编辑
摘要:卷积神经网络的训练是耗时的,很多场合不可能每次都从随机初始化参数开始训练网络。 1.训练 pytorch中自带几种常用的深度学习网络预训练模型,如VGG、ResNet等。往往为了加快学习的进度,在训练的初期我们直接加载pre-train模型中预先训练好的参数,所以这里使用的网络是: torchvis 阅读全文
posted @ 2019-04-17 10:57 慢行厚积 阅读(3686) 评论(1) 推荐(1) 编辑
摘要:参考:https://github.com/chenyuntc/pytorch-book/tree/v1.0/chapter6-实战指南 希望大家直接到上面的网址去查看代码,下面是本人的笔记 将上面地址的代码下载到本地后进行操作 1.安装依赖 在https://github.com/chenyunt 阅读全文
posted @ 2019-04-09 11:19 慢行厚积 阅读(4724) 评论(0) 推荐(4) 编辑
摘要:参考:https://pytorch-cn.readthedocs.io/zh/latest/package_references/functional/#_1 或: 对n维输入张量运用Softmax函数,将张量的每个元素缩放到(0,1)区间且和为1。Softmax函数定义如下: 参数: dim:指 阅读全文
posted @ 2019-04-09 10:54 慢行厚积 阅读(110600) 评论(0) 推荐(3) 编辑
摘要:https://github.com/chenyuntc/pytorch-book/blob/v1.0/chapter5-常用工具/chapter5.ipynb 希望大家直接到上面的网址去查看代码,下面是本人的笔记 在训练神经网络过程中,需要用到很多工具,其中最重要的三部分是:数据、可视化和GPU加 阅读全文
posted @ 2019-04-08 14:38 慢行厚积 阅读(4541) 评论(0) 推荐(0) 编辑
摘要:初学时大多使用print或log调试程序,这在小规模的程序下很方便 但是更好的方法是一边运行一边检查里面的变量和方法 1.Pdb Pdb是一个交互式的调试工具,集成于Python标准库中 Pdb能让你根据需求跳转到任意的Python代码断点、查看任意变量、单步执行代码,甚至还能修改变量的值,而不必重 阅读全文
posted @ 2019-04-03 18:00 慢行厚积 阅读(3695) 评论(0) 推荐(0) 编辑
摘要:参考:https://pytorch-cn.readthedocs.io/zh/latest/torchvision/torchvision-datasets/ torchvision.datasets Datasets 拥有以下API: __getitem__ __len__ Datasets都是 阅读全文
posted @ 2019-04-03 15:49 慢行厚积 阅读(50740) 评论(0) 推荐(7) 编辑
摘要:在文档中解释是: 意思是是否将得到的值计算得到的值覆盖之前的值,比如: 即对原值进行操作,然后将得到的值又直接复制到该值中 而不是覆盖运算的例子如: 这样就需要花费内存去多存储一个变量y 所以 的意思就是对从上层网络Conv2d中传递下来的tensor直接进行修改,这样能够节省运算内存,不用多存储其 阅读全文
posted @ 2019-04-02 14:58 慢行厚积 阅读(47095) 评论(0) 推荐(6) 编辑
摘要:参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 本章介绍的nn模块是构建与autograd之上的神经网络模块 除了nn外还会介绍神经网络中常用的工具,比如优化器optim、初始化init 阅读全文
posted @ 2019-04-01 16:51 慢行厚积 阅读(4329) 评论(0) 推荐(0) 编辑
摘要:参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 Tensor Tensor可以是一个数(标量)、一维数组(向量)、二维数组(矩阵)或更高维的数组(高阶数据) Tensor和numpy的n 阅读全文
posted @ 2019-03-31 15:59 慢行厚积 阅读(8216) 评论(0) 推荐(0) 编辑
摘要:tensor分为头信息区(Tensor)和存储区(Storage) 信息区主要保存着tensor的形状(size)、步长(stride)、数据类型(type)等信息,而真正的数据则保存成连续数组,存储在存储区 因为数据动辄成千上万,因此信息区元素占用内存较少,主要内存占用取决于tensor中元素的数 阅读全文
posted @ 2019-03-31 15:59 慢行厚积 阅读(6817) 评论(1) 推荐(2) 编辑
摘要:参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 torch.autograd就是为了方便用户使用,专门开发的一套自动求导引擎,她能够根据输入和前向传播过程自动构建计算图,并执行反向传播 阅读全文
posted @ 2019-03-31 15:58 慢行厚积 阅读(4685) 评论(0) 推荐(1) 编辑
摘要:在学习的过程中遇见了一个问题,就是当使用backward()反向传播时传入参数的问题: 这里的backward()中为什么需要传入参数Variable(t.ones(1, 10))呢?没有传入就会报错: 这个错误的意思就是梯度只能为标量(即一个数)输出隐式地创建 比如有一个例子是: 1) 返回: 此 阅读全文
posted @ 2019-03-28 17:15 慢行厚积 阅读(21577) 评论(3) 推荐(4) 编辑
摘要:参考:https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py TRAINING A CLASSIFIER 到这里,你已经知道怎么定义神 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(2523) 评论(2) 推荐(0) 编辑
摘要:参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 pytorch的设计遵循tensor-> variable(autograd)-> nn.Module三个由低到高的抽象层次,分别代表高维 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(1588) 评论(0) 推荐(0) 编辑
摘要:参考:http://python.jobbole.com/87522/ 1.首先要安装Anaconda 1)什么是Anaconda Anaconda是Python的包管理器和环境管理器,是一个包含180+的科学包及其依赖项的发行版本。其包含的科学包包括:conda, numpy, scipy, ip 阅读全文
posted @ 2019-03-27 17:44 慢行厚积 阅读(12224) 评论(0) 推荐(1) 编辑
摘要:在deeplearning中再运行jupyter notebook就出现了错误: 这是因为之前你安装anaconda navigator时下面的应用的安装都是在base环境下,所以你直接在终端中运行时默认使用的是base环境,如果你进入了另一个自己生成的环境deeplearning,如下图所示,状态 阅读全文
posted @ 2019-03-27 11:38 慢行厚积 阅读(4735) 评论(0) 推荐(0) 编辑
摘要:当我们在jupyter notebook中运行时可能会遇见没有某个包的情况,如下: 首先我的jupyter notebook是在本地设置的python3的环境deeplearning下运行的: 但是很奇怪的是我python3的环境下已经安装好了tensorflow,但是jupyter中还是显示没有 阅读全文
posted @ 2019-03-27 11:07 慢行厚积 阅读(12266) 评论(0) 推荐(0) 编辑
摘要:1)使用conda install -n 环境名 包名 2)进入环境,在环境中使用pip install命令: 然后查看: 可见安装了1.13.1版本的tensorflow 3.使用anaconda navigator安装,详情可见jupyter notebook中No module named ' 阅读全文
posted @ 2019-03-27 10:09 慢行厚积 阅读(13286) 评论(0) 推荐(0) 编辑
摘要:使用命令: 和 阅读全文
posted @ 2019-03-22 10:24 慢行厚积 阅读(18012) 评论(0) 推荐(0) 编辑