随笔分类 -  # pytorch

1
摘要:官方教程英文版在这里,中文版在这里。文章引用放在末尾。 文章目录 一、张量的基本操作二、维度变换**2.1 squeeze vs unsqueeze 维度增减****2.2 transpose vs permute 维度交换****2.3 reshape vs view****2.4 einsum* 阅读全文
posted @ 2022-06-01 19:08 小Aer 阅读(78) 评论(0) 推荐(0) 编辑
摘要:文章目录 DCGAN教程1. 简介2. 生成对抗网络(Generative Adversarial Networks)2.1 什么是 GAN2.2 什么是 DCGAN 3. DCGAN实现过程3.1 输入3.2 数据3.3 实现3.3.1 权重初始化3.3.2 生成器3.3.3 判别器3.3.4 损 阅读全文
posted @ 2022-03-22 21:18 小Aer 阅读(49) 评论(0) 推荐(0) 编辑
摘要:文章目录 使用pytorch进行深度学习1. 深度学习构建模块:仿射变换, 非线性函数以及目标函数1.1 仿射变换1.2 非线性函数1.3 Softmax和概率1.4 目标函数 2. 优化和训练3. 使用PyTorch创建网络组件3.1 示例: 基于逻辑回归与词袋模式的文本分类器 使用pytorch 阅读全文
posted @ 2022-03-22 16:02 小Aer 阅读(12) 评论(0) 推荐(0) 编辑
摘要:model.eval() 使用model.eval()切换到测试模式,不会更新模型的k(权重),b(偏置)参数通知dropout层和batchnorm层在train和val中间进行切换: 在train模式,dropout层会按照设定的参数p设置保留激活单元的概率(保留概率=p,比如keep_prob 阅读全文
posted @ 2022-03-05 15:34 小Aer 阅读(392) 评论(0) 推荐(0) 编辑
摘要:原理 从17年被RetinaNet提出,Focal Loss 一直备受好评。由于其着重关注分类较差的样本的思想,Focal loss以简单的形式,一定程度解决了样本的难例挖掘,样本不均衡的问题。 代码 import torch import torch.nn as nn import torch.n 阅读全文
posted @ 2022-03-04 15:43 小Aer 阅读(75) 评论(0) 推荐(0) 编辑
摘要:单个变量的转化 ndarray = np.array(list) # list 转 numpy数组 list = ndarray.tolist() # numpy 转 list tensor=torch.tensor(list) # list 转 torch.Tensor list = tensor 阅读全文
posted @ 2022-03-03 16:37 小Aer 阅读(41) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.简介2.导入所需要的包3.加载图片5.计算损失5.1内容损失5.2风格损失 6.导入模型7.梯度下降 1.简介 本教程主要讲解如何实现由 Leon A. Gatys,Alexander S. Ecker和Matthias Bethge提出的Neural-Style 算法。Neural- 阅读全文
posted @ 2022-03-02 15:30 小Aer 阅读(26) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.加载数据2.什么是空间变换器网络?3.训练模型4.可视化 STN 结果 1.加载数据 完整代码文末给出。 在这篇文章中,我们尝试了经典的 MNIST 数据集。使用标准卷积网络增强空间变换器网络。 from six.moves import urllib opener = urllib. 阅读全文
posted @ 2022-02-21 15:53 小Aer 阅读(15) 评论(0) 推荐(0) 编辑
摘要:文章目录 前言1.导入相关包并打印版本号2.输入3.辅助函数3.1 模型训练和验证代码3.2 设置模型参数的`.requires_grad`属性 4.初始化和重塑网络4.1 Resnet4.2 Alexnet4.3 VGG4.4 Squeezenet4.5 Densenet4.6 Inception 阅读全文
posted @ 2022-02-14 18:50 小Aer 阅读(55) 评论(0) 推荐(0) 编辑
摘要:在本教程中,我们将微调在 Penn-Fudan 数据库中对行人检测和分割的已预先训练的 Mask R-CNN模型。它包含170个图像和345个行人实例,我们 将用它来说明如何在 torchvision 中使用新功能,以便在自定义数据集上训练实例分割模型。 文章目录 1.定义数据集2.为 PennFu 阅读全文
posted @ 2022-02-14 14:13 小Aer 阅读(66) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.导入相关的包2.加载数据3.可视化部分图像数据4.训练模型5.可视化模型的预测结果6.场景1:微调ConvNet7.场景2:ConvNet作为固定特征提取器 实际中,基本没有人会从零开始(随机初始化)训练一个完整的卷积网络,因为相对于网络,很难得到一个足够大的数据集[网络很深, 需要足 阅读全文
posted @ 2022-01-26 12:33 小Aer 阅读(68) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.获取训练设备2.定义类3.模型层4.模型参数 神经网络由对数据执行操作的层/模块组成。 torch.nn 命名空间提供了构建自己的神经网络所需的所有构建块。PyTorch 中的每个模块都是 nn.Module 的子类。神经网络是一个模块本身,由其他模块(层)组成。这种嵌套结构允许轻松构 阅读全文
posted @ 2021-08-17 17:20 小Aer 阅读(12) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.Transfroms2.ToTensor()3.Lambda Transforms 1.Transfroms 数据并不总是以训练机器学习算法所需的最终处理形式出现。我们使用转换来对数据进行一些操作并使其适合训练。 所有 TorchVision 数据集都有两个参数 - 用于修改特征的 t 阅读全文
posted @ 2021-08-17 16:32 小Aer 阅读(25) 评论(0) 推荐(0) 编辑
摘要:文章目录 1.加载数据集2.迭代和可视化数据集3.创建自定义数据集4.准备数据以使用 DataLoaders 进行训练5.通过 DataLoader遍历6.Further Reading 处理数据样本的代码可能会变得混乱且难以维护;我们理想地希望我们的数据集代码与我们的模型训练代码分离,以获得更好的 阅读全文
posted @ 2021-08-05 18:46 小Aer 阅读(22) 评论(0) 推荐(0) 编辑
摘要:文章目录 一、头文件二、定义一个张量三、张量的属性四、张量运算五、与 NumPy 的桥接 一、头文件 import torch import numpy as np 二、定义一个张量 张量可以直接从数据中创建。数据类型是自动推断的。 data = [[1, 2],[3, 4]] x_data = t 阅读全文
posted @ 2021-08-03 18:59 小Aer 阅读(5) 评论(0) 推荐(0) 编辑
摘要:1.可以在终端里面使用python进入python环境 >>>import torch >>>torch.cuda.empty_cache() 2.使用nvidia-smi查看gpu使用进程,找到进程的名字,使用sudo pkill python去杀死他 3.减少batch size的大小,最好是8 阅读全文
posted @ 2021-06-24 21:36 小Aer 阅读(59) 评论(0) 推荐(0) 编辑
摘要:这两个方法都是对应位置元素相乘,因此要求维度相同 矩阵相乘 tensor = torch.ones(4, 4) tensor[:,1] = 0 print(tensor) tensor([[1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.], [1 阅读全文
posted @ 2021-05-18 21:33 小Aer 阅读(7) 评论(0) 推荐(0) 编辑
摘要:1.张量>>>>numpy数组 t = torch.ones(5) print(f"t: {t}") n = t.numpy() print(f"n: {n}") t: tensor([1., 1., 1., 1., 1.]) n: [1. 1. 1. 1. 1.] 在张量中的改变也会影响numpy 阅读全文
posted @ 2021-05-18 16:41 小Aer 阅读(19) 评论(0) 推荐(0) 编辑
摘要:执行张量的加法运算 tensor = torch.ones(4, 4) tensor[:,1] = 0 print(tensor, "\n") tensor.add_(5) print(tensor) tensor([[1., 0., 1., 1.], [1., 0., 1., 1.], [1., 阅读全文
posted @ 2021-05-18 16:34 小Aer 阅读(43) 评论(0) 推荐(0) 编辑
摘要:除了tensor.matmul(tensor.T)这种表示方法,还有tensor @ tensor.T,都可以实现张量的矩阵乘法,当然tensor.mm也是矩阵乘法(这些方法和对应元素相乘区分开) 对应元素相乘 1.初始化张量 tensor = torch.ones(4, 4) tensor[:,1 阅读全文
posted @ 2021-05-18 16:28 小Aer 阅读(36) 评论(0) 推荐(0) 编辑

1
点击右上角即可分享
微信分享提示