随笔分类 -  pytorch

pytorch框架学习
摘要:之前的博客介绍了upsample层转换到tensorRT出错的解决方法,就是回退onnx版本到1.5.0。虽然暂时解决了问题,但无法使用高版本的pytorch和onnx,https://www.cnblogs.com/hypnus-ly/p/12932110.html 最近又上github,发现更简 阅读全文
posted @ 2020-07-08 17:57 blackx 阅读(2379) 评论(0) 推荐(0) 编辑
摘要:1、打印梯度 for name, param in model.named_parameters(): if param.requires_grad: if param.grad is not None: print("{}, gradient: {}".format(name, param.gra 阅读全文
posted @ 2020-06-04 16:24 blackx 阅读(2068) 评论(0) 推荐(0) 编辑
摘要:1、pytorch 实现一个上采样层,代码如下 import torch import torch.nn as nn import torch.nn.functional as F import os import cv2 import numpy as np class TestUpsample( 阅读全文
posted @ 2020-05-21 17:25 blackx 阅读(4472) 评论(5) 推荐(0) 编辑
摘要:使用不同的深度学习框架,以及训练不同的目标检测模型时,其各源码map测试接口的实现都不一样。为了方便统一对比不同模型的优劣,使用如下方法进行各个模型map的计算 1、制作相同的测试集,例如 valid.txt 文件,里面保存需要测试图片的路径 2、检测识别 valid.txt 文件里的图片数据,将测 阅读全文
posted @ 2020-05-21 16:02 blackx 阅读(433) 评论(0) 推荐(0) 编辑
摘要:每次将tensor保存为图片时,总是要先将tensor转换到cpu,然后再转换到numpy,最后再保存图片,过程太繁琐。今天介绍个pytorch的原生api,可以直接将cuda tensor 保存为图片。 import torch import torchvision import numpy as 阅读全文
posted @ 2020-05-20 11:29 blackx 阅读(5727) 评论(0) 推荐(0) 编辑
摘要:1、问题描述: pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。 2、解决方法: 使用如下代码处理输入数据: 假设X为模型的输入 X = X.cuda() input_blobs = Variable(X, volatile=True) 阅读全文
posted @ 2018-11-05 18:13 blackx 阅读(4475) 评论(0) 推荐(0) 编辑