08 2019 档案

摘要:1.一层修饰符 1)简单版,编译即实现 在一个函数上面添加修饰符 @另一个函数名 的作用是将这个修饰符下面的函数作为该修饰符函数的参数传入,作用可以有比如你想要在函数前面添加记录时间的代码,这样每个函数调用时就能够知道是什么时候调用的,但是你不想手动地去给每个函数添加,那么就能够使用该修饰符实现这样 阅读全文
posted @ 2019-08-29 19:49 慢行厚积 阅读(8546) 评论(0) 推荐(1) 编辑
摘要:参考:https://pytorch.org/docs/stable/nn.html Containers Module 所有神经网络模块的基类 你定义的模型必须是该类的子类,即继承与该类 模块也能包含其他模块,允许它们在树状结构中筑巢。您可以将子模块指定为常规属性: 在这个例子中,nn.Conv2 阅读全文
posted @ 2019-08-26 15:23 慢行厚积 阅读(1143) 评论(0) 推荐(0) 编辑
摘要:interpolate 根据给定的size或scale_factor参数来对输入进行下/上采样 使用的插值算法取决于参数mode的设置 支持目前的temporal(1D, 如向量数据), spatial(2D, 如jpg、png等图像数据)和volumetric(3D, 如点云数据)类型的采样数据作 阅读全文
posted @ 2019-08-23 16:29 慢行厚积 阅读(58593) 评论(1) 推荐(1) 编辑
摘要:上采样(upsampling)一般包括2种方式: Resize,如双线性插值直接缩放,类似于图像缩放,概念可见最邻近插值算法和双线性插值算法——图像缩放 Deconvolution,也叫Transposed Convolution,可见逆卷积的详细解释ConvTranspose2d(fraction 阅读全文
posted @ 2019-08-23 16:28 慢行厚积 阅读(8847) 评论(0) 推荐(0) 编辑
摘要:Vision layers 1)Upsample 上采样一个给定的多通道的 1D (temporal,如向量数据), 2D (spatial,如jpg、png等图像数据) or 3D (volumetric,如点云数据)数据 假设输入数据的格式为minibatch x channels x [opt 阅读全文
posted @ 2019-08-23 15:51 慢行厚积 阅读(106846) 评论(1) 推荐(5) 编辑
摘要:1.数据处理代码utils.py: 1) 2) 后面发现torchvision.utils有一个make_grid()函数能够直接实现将(batchsize,channels,height,width)格式的tensor图像数据合并成一张图。 同时其也有一个save_img(tensor, file 阅读全文
posted @ 2019-08-22 10:59 慢行厚积 阅读(6825) 评论(1) 推荐(1) 编辑
摘要:1.使用apply() 举例说明: Encoder :设计的编码其模型 weights_init(): 用来初始化模型 model.apply():实现初始化 返回: 2.直接在定义网络时定义 然后调用即可 阅读全文
posted @ 2019-08-20 19:49 慢行厚积 阅读(11756) 评论(0) 推荐(0) 编辑
摘要:通过对抗训练实现半监督的异常检测 Abstract Abstract Abstract Abstract Abstract 异常检测在计算机视觉中是一个经典的问题,即从异常中确定正常,但是由于其他类(即异常类)的样本数量不足,所以数据集主要基于一个类(即正常类)。虽然该问题能够当成一个监督学习问题来 阅读全文
posted @ 2019-08-16 15:05 慢行厚积 阅读(6224) 评论(4) 推荐(0) 编辑
摘要:在python2.7环境下 文件下载位置:https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/ 1.可视化模型文件prototxt 1)在线可视化 网址为:https://ethereon.github.io/netscope/#/editor 将 阅读全文
posted @ 2019-08-12 17:11 慢行厚积 阅读(1705) 评论(0) 推荐(0) 编辑
摘要:使用anaconda3环境下的python2.7, 机器macos mojave 10.14 1.安装Xcode 首先现在app store中安装Xcode 2.相应包安装 1.首先要安装homebrew包管理工具,在终端运行下面命令: /usr/bin/ruby -e "$(curl -fsSL 阅读全文
posted @ 2019-08-09 19:54 慢行厚积 阅读(1318) 评论(0) 推荐(0) 编辑
摘要:1.保存整个网络结构信息和模型参数信息: 直接加载即可使用: 2.只保存网络的模型参数-推荐使用 加载则要先从本地网络模块导入网络,然后再加载参数: 阅读全文
posted @ 2019-08-08 16:09 慢行厚积 阅读(9593) 评论(0) 推荐(1) 编辑
摘要:下面是定义初始化 然后进行动态赋值: 阅读全文
posted @ 2019-08-01 20:06 慢行厚积 阅读(5724) 评论(0) 推荐(0) 编辑
摘要:Encoder代码为: 判别器为: 重点在: layers = list(model.main.children()) self.features = nn.Sequential(*layers[:-1]) :使用除了最后一层的前面所有层 self.classifier = nn.Sequentia 阅读全文
posted @ 2019-08-01 20:03 慢行厚积 阅读(3879) 评论(0) 推荐(0) 编辑
摘要:之前我们使用nn.Sequential()都是直接写死的,就如下所示: 那如果我们想要根据条件一点点添加进去,那就可以使用其的add_module方法 torch.nn.Module.add_module 添加子模块到当前模块中 该添加子模块能够使用给定的名字name来访问 参数: name (st 阅读全文
posted @ 2019-08-01 19:52 慢行厚积 阅读(18764) 评论(0) 推荐(2) 编辑
摘要:1.DataParallel layers (multi-GPU, distributed) 1)DataParallel 实现模块级别的数据并行 该容器是通过在batch维度上将输入分到指定的device中来在给定的module应用上实现并行。在前向传播中,模块module将在每个设备device 阅读全文
posted @ 2019-08-01 19:42 慢行厚积 阅读(14656) 评论(0) 推荐(0) 编辑