随笔分类 -  PyTorch

深度学习-卷积神经网络
摘要:在SSD的代码中经常有见到如下的操作: _, idx = flt[:, :, 0].sort(1, descending=True)#大小为[batch size, num_classes*top_k] _, rank = idx.sort(1)#再对索引升序排列,得到其索引作为排名rank 其作用 阅读全文
posted @ 2020-05-28 18:16 慢行厚积 阅读(3339) 评论(0) 推荐(1) 编辑
摘要:下载pytorch_wavelets: git clone https://github.com/fbcotter/pytorch_wavelets 然后安装: cd pytorch_wavelets pip install . 返回: Successfully built pytorch-wave 阅读全文
posted @ 2020-03-19 18:33 慢行厚积 阅读(17457) 评论(0) 推荐(1) 编辑
摘要:有段时间读取数据的时候都是用下面的命令: img = cv2.imread(os.path.join(path, file, pic)) img = Image.fromarray(img.astype(np.uint8)) 突然有一天突然反应过来为什么要搞这么麻烦,直接使用: img = Imag 阅读全文
posted @ 2020-03-19 15:47 慢行厚积 阅读(1984) 评论(0) 推荐(0) 编辑
摘要:https://download.pytorch.org/whl/torch_stable.html 阅读全文
posted @ 2020-03-17 12:09 慢行厚积 阅读(17102) 评论(0) 推荐(3) 编辑
摘要:python: /pytorch/third_party/ideep/mkl-dnn/src/cpu/jit_avx2_conv_kernel_f32.cpp:582: static mkldnn::impl::status_t mkldnn::impl::cpu::jit_avx2_conv_fw 阅读全文
posted @ 2020-03-17 11:47 慢行厚积 阅读(687) 评论(0) 推荐(0) 编辑
摘要:出错: Traceback (most recent call last): File "train.py", line 305, in <module> train_model(model_conv, criterion, optimizer_conv, exp_lr_scheduler) Fil 阅读全文
posted @ 2019-12-24 13:54 慢行厚积 阅读(1254) 评论(0) 推荐(0) 编辑
摘要:记录下一些常用设置: 1.下采样 当设置为: kernel_size = 4, stride = 2, padding = 1,就是将特征图宽高缩小一倍的意思,就比如是将256*256 -> 128*128 kernel_size=7, stride=2, padding=3,这个也相当于缩小一倍 阅读全文
posted @ 2019-09-16 18:26 慢行厚积 阅读(2644) 评论(0) 推荐(0) 编辑
摘要:cuDNN使用非确定性算法,并且可以使用torch.backends.cudnn.enabled = False来进行禁用 如果设置为torch.backends.cudnn.enabled =True,说明设置为使用使用非确定性算法 然后再设置: 那么cuDNN使用的非确定性算法就会自动寻找最适合 阅读全文
posted @ 2019-09-12 18:18 慢行厚积 阅读(31213) 评论(0) 推荐(2) 编辑
摘要:其实在代码的开头添加下面几句话即可: 为了生成随机数设置种子。返回一个torch.Generator对象 参数: seed (int) – 期望的种子数 为当前GPU生成随机数设置种子。如果CUDA不可用,调用该方法也是安全的;在这种情况下,该调用就会被忽略 参数: seed (int) – 期望的 阅读全文
posted @ 2019-09-12 18:13 慢行厚积 阅读(3792) 评论(2) 推荐(1) 编辑
摘要:在为数据分类训练分类器的时候,比如猫狗分类时,我们经常会使用pytorch的ImageFolder: 使用可见pytorch torchvision.ImageFolder的使用 这里想实现的是如果想要覆写该函数,即能使用它的特性,又可以实现自己的功能 首先先分析下其源代码: ImageFolder 阅读全文
posted @ 2019-09-12 17:58 慢行厚积 阅读(3901) 评论(0) 推荐(0) 编辑
摘要:在使用 torchvision.transforms进行数据处理时我们经常进行的操作是: transforms.Normalize((0.485,0.456,0.406), (0.229,0.224,0.225)) 前面的(0.485,0.456,0.406)表示均值,分别对应的是RGB三个通道;后 阅读全文
posted @ 2019-09-02 19:36 慢行厚积 阅读(13546) 评论(4) 推荐(0) 编辑
摘要:使用tertools.chain将参数链接起来即可 阅读全文
posted @ 2019-09-02 16:20 慢行厚积 阅读(7031) 评论(0) 推荐(1) 编辑
摘要:参考:https://pytorch.org/docs/stable/nn.html Containers Module 所有神经网络模块的基类 你定义的模型必须是该类的子类,即继承与该类 模块也能包含其他模块,允许它们在树状结构中筑巢。您可以将子模块指定为常规属性: 在这个例子中,nn.Conv2 阅读全文
posted @ 2019-08-26 15:23 慢行厚积 阅读(1139) 评论(0) 推荐(0) 编辑
摘要:interpolate 根据给定的size或scale_factor参数来对输入进行下/上采样 使用的插值算法取决于参数mode的设置 支持目前的temporal(1D, 如向量数据), spatial(2D, 如jpg、png等图像数据)和volumetric(3D, 如点云数据)类型的采样数据作 阅读全文
posted @ 2019-08-23 16:29 慢行厚积 阅读(58494) 评论(1) 推荐(1) 编辑
摘要:上采样(upsampling)一般包括2种方式: Resize,如双线性插值直接缩放,类似于图像缩放,概念可见最邻近插值算法和双线性插值算法——图像缩放 Deconvolution,也叫Transposed Convolution,可见逆卷积的详细解释ConvTranspose2d(fraction 阅读全文
posted @ 2019-08-23 16:28 慢行厚积 阅读(8836) 评论(0) 推荐(0) 编辑
摘要:Vision layers 1)Upsample 上采样一个给定的多通道的 1D (temporal,如向量数据), 2D (spatial,如jpg、png等图像数据) or 3D (volumetric,如点云数据)数据 假设输入数据的格式为minibatch x channels x [opt 阅读全文
posted @ 2019-08-23 15:51 慢行厚积 阅读(106750) 评论(1) 推荐(5) 编辑
摘要:1.数据处理代码utils.py: 1) 2) 后面发现torchvision.utils有一个make_grid()函数能够直接实现将(batchsize,channels,height,width)格式的tensor图像数据合并成一张图。 同时其也有一个save_img(tensor, file 阅读全文
posted @ 2019-08-22 10:59 慢行厚积 阅读(6820) 评论(1) 推荐(1) 编辑
摘要:1.使用apply() 举例说明: Encoder :设计的编码其模型 weights_init(): 用来初始化模型 model.apply():实现初始化 返回: 2.直接在定义网络时定义 然后调用即可 阅读全文
posted @ 2019-08-20 19:49 慢行厚积 阅读(11744) 评论(0) 推荐(0) 编辑
摘要:1.保存整个网络结构信息和模型参数信息: 直接加载即可使用: 2.只保存网络的模型参数-推荐使用 加载则要先从本地网络模块导入网络,然后再加载参数: 阅读全文
posted @ 2019-08-08 16:09 慢行厚积 阅读(9592) 评论(0) 推荐(1) 编辑
摘要:下面是定义初始化 然后进行动态赋值: 阅读全文
posted @ 2019-08-01 20:06 慢行厚积 阅读(5724) 评论(0) 推荐(0) 编辑