随笔分类 -  Pytorch

摘要:Detectron2 中data的部分和maskrcnn_benchmark中的不太一样。 首先,为了实现数据集的调用与实现的分离,在 中实现了 和`MetadataCatalog DataCatalog.get(dataset_name') comom.py DatasetFromList dat 阅读全文
posted @ 2019-11-01 15:17 骏腾 阅读(2541) 评论(0) 推荐(0)
摘要:先来看下 的成员: 和`register_parameter _buffer _parameters`,调用这两个函数分别会向两个成员写入数据。 和`_parameter state_dict .cpu() .cuda()`在设备间进行转换。 中的元素不会被优化器更新,如果在模型中需要需要一些参数, 阅读全文
posted @ 2019-10-31 21:10 骏腾 阅读(4410) 评论(5) 推荐(0)
摘要:nn.Parameters vs nn.Module.register_parameter 阅读全文
posted @ 2019-10-31 20:38 骏腾 阅读(5014) 评论(0) 推荐(2)
摘要:pytorch coco 目标检测 DataLoader实现 pytorch实现目标检测目标检测算法首先要实现数据的读入,即实现 和`DataLoader`两个类。 借助 实现了CoCo2017用于目标检测数据的读取,并使用 显示。 分析 使用 显示读入数据,或者要送入到网络的数据应该有三个部分 1 阅读全文
posted @ 2018-11-16 22:33 骏腾 阅读(10416) 评论(1) 推荐(0)
摘要:今天使用 "hiddenlayer" 测试了下retinanet网络的可视化。 首先,安装hiddlayer,直接pip 然后在终端加载模型并显示: 模型太复杂了,放在 "这里" 了。 昨天晚上对比着模型结构的pdf和代码又看了下,发现还是很有用的,起码对网络的数据流动的认识更加清晰了。 阅读全文
posted @ 2018-11-14 15:35 骏腾 阅读(1082) 评论(0) 推荐(0)
摘要:最近注意到在一些caffe模型中,偏置项的学习率通常设置为普通层的两倍。具体原因可以参考(https://datascience.stackexchange.com/questions/23549/why is the learning rate for the bias usually twice 阅读全文
posted @ 2018-11-13 16:00 骏腾 阅读(10223) 评论(0) 推荐(0)
摘要:pytorch 中提供了对Tensor进行Crop的方法,可以使用GPU实现。具体函数是 和`torch.nn.functional.grid_sample`。前者用于生成二维网格,后者对输入Tensor按照网格进行双线性采样。 函数中将图像坐标归一化到$[ 1, 1]$,其中0对应 1,width 阅读全文
posted @ 2018-11-13 10:35 骏腾 阅读(13258) 评论(0) 推荐(0)
摘要:notMNIST数据集分类 简介 "notMNIST数据集" 是于2011公布的,可以认为是MNIST数据集地一个加强版本。数据集包含了从A到J十个字母,由large与small两个子集组成。其中samll数据集是经过手工清理的,包含19k个图片,误分类率越为0.5%,large数据集是未经过手工清 阅读全文
posted @ 2018-11-01 19:15 骏腾 阅读(1107) 评论(0) 推荐(0)
摘要:numpy 的文档提到数组广播机制为: When operating on two arrays, NumPy compares their shapes element wise. It starts with the trailing dimensions, and works its way 阅读全文
posted @ 2018-10-18 10:38 骏腾 阅读(1896) 评论(0) 推荐(0)