摘要:
跑了一晚上的模型,实在占GPU资源,这两天已经有很多小朋友说我了。我选择了其中一个参数。 https://github.com/dmlc/gluon-cv/blob/master/scripts/detection/faster_rcnn/train_faster_rcnn.py train_fas 阅读全文
摘要:
当然这个模型参数,最好用自己的,否则不够精确,我自己的还没训练完。 阅读全文
摘要:
https://gluon-cv.mxnet.io/build/examples_datasets/detection_custom.html 官方提供两种方案,一种是lst文件,一种是xml文件(voc的格式); voc 格式的标注有标注工具,但是你如果是json文件标注的信息,或者其他格式的,你 阅读全文
摘要:
搭建就不多说了:https://www.xuebuyuan.com/3235974.html 在其中可以用cd(进入目录),ls(罗列文件和文件夹),get(下载文件),put(上载文件) 等命令进行 相应操作。 其中:get 只能一个文件一个文件下载。 解决方法: https://svntrunk 阅读全文
摘要:
可变形网络 :https://github.com/msracver/Deformable-ConvNets VOC数据集: Test 参数 VOC2007 20类*4 + train.txt , val.txt , trainval.txt, test.txt VOC2012 20类*3 + tr 阅读全文
摘要:
https://www.cnblogs.com/xinjing-jingxin/p/9128293.html 文件开始 - 列表 key: val 字典 注意:字典里面可以嵌套字典,列表等。(举例) https://github.com/msracver/Deformable-ConvNets/bl 阅读全文
摘要:
其实现在用的最多的是faster rcnn,等下再弄项目~~~ 图像经过基础网络块,三个减半模块,每个减半模块由两个二维卷积层,加一个maxPool减半(通道数依次增加【16,32,64】) 然后是多个(3个)多尺度特征块。每个特征块依次都是一个减半模块,通道数固定128 最后一个全局最大池化层模块 阅读全文
摘要:
合成的数据集 batch.data[0].shape 还是同之前的批量数据一样(批量大小,通道,高,宽) batch.label[0].shape (批量大小,m,5)m : 单个图像中最多含有的边界框个数,5 :(是否是非法边界框(0~1)) 阅读全文
摘要:
zip 函数,看上去是打包的意思,其实功能是将多个可迭代对象,组合成一个个元组。 zip(iter1,iter2) a,b = zip(*zip(iter1,iter2)) http://www.runoob.com/python3/python3-func-zip.html 阅读全文
摘要:
我们预测阶段时: 生成多个锚框 每个锚框预测类别和偏移量 但是,当同一个目标上可能输出较多的相似的预测边界框。我们可以移除相似的预测边界框。——NMS(非极大值抑制)。 对于一个预测边界框B,模型会计算各个类别的预测概率,选择最大的那个p,也叫p是这个框的置信度。 在同一张图像上,我们将预测类别非背 阅读全文
摘要:
生成多个锚框(contrib.nd.MultiBoxPrior) 每个像素点构造多个锚框,假设设定一组大小s1,...,sn和一组宽高比r1,...,rm。然后每个像素组合,就有hwnm个锚框,一般情况下,只要s1,和r1的组合。即: 共wh(n+m-1)个锚框 交并比(IoU) 面试中有提问过。。 阅读全文
摘要:
%matplotlib inline import gluonbook as gb from mxnet import image import sys gb.set_figsize() img = image.imread('./catdog.jpg').asnumpy() gb.plt.imshow(img) dog_bbox,cat_bbox = [60,45,378,516],[40... 阅读全文
摘要:
gluon 版: 阅读全文
摘要:
之前有讨论过梯度下降法: 参数迭代 于是会产生问题,学习参数过小,模型很难到达最优点,而参数过大,某个参数会发散。 小批量随机梯度下降也讨论过了(线性回归的公式如下): 那么动量法呢? 简单地将梯度下降公式增加一个动量V,迭代公式如下: 原理: 当前阶段 t (时间步t)的变量 yt 是上一个阶段 阅读全文
摘要:
numpy也可以说是随处可见了。 ndarray(np.array),就相当于mxnet 里的ndarray一样,连名字都一样。 阅读全文
摘要:
os.path 模块的程序可以是遍地可见了。 参考:http://www.runoob.com/python3/python3-os-path.html 阅读全文
摘要:
之前写过tmux分屏,其实这个只是方便写代码啥的,那都还不是最重要的。跑模型时,一般一跑就是一整天都是常事。 电脑关机,睡眠,ssh连接失效都会断了程序运行。 solution:tmux后台运行程序!!! tmux 进入后,后台不会断 ctrl + d ,断了这个windows 将一个tmux 进程 阅读全文
摘要:
参考: http://www.cnblogs.com/zhbzz2007/p/5943685.html https://www.cnblogs.com/liujiacai/p/7804848.html 阅读全文
摘要:
用的最多的就是: ls -l 普通文件就是以 - 开头,文件夹以 d 开头 grep 后面接正则表达式:^- 以 - 开头的匹配 http://tool.oschina.net/uploads/apidocs/jquery/regexp.html wc -l 统计行数 其他常用的: 【转】https 阅读全文
摘要:
https://github.com/tornadomeet/ResNet apache 开源项目 修改如下: 训练模块 为减小网络大小,将图片全部缩放为128*128大小,平时使用ResNet-50的网络,将num_classes 改为需要的分类数目。 train acc可以在99.9%水平,va 阅读全文
摘要:
api:http://www.opencv.org.cn/opencvdoc/2.3.2/html/modules/imgproc/doc/geometric_transformations.html?highlight=resize#cv.Resize tips: 要注意的是img.shape 返 阅读全文
摘要:
可以看到,x2 比 x1 的斜率的绝对值更大。 给定学习率,迭代自变量时会使自变量在竖直方向比水平方向移动幅度更大。那么我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这样又会造成自变量在水平方向上朝着最优解移动变慢。 调大学习率,竖直方向的自变量,不断越过最优解,并发散 阅读全文
摘要:
由5个卷积层块(2个单卷积层,3个双卷积层),3个全连接层组成——VGG-11 输出形状。 阅读全文
摘要:
网上很多教程; 新手教程: tmux进入 ctrl + b 命令 % 纵向分屏 命令 方向键 切换 https://lukaszwrobel.pl/blog/tmux-tutorial-split-terminal-windows-easily/ 阅读全文
摘要:
https://github.com/apache/incubator-mxnet/blob/master/tools/im2rec.py#L196 源码是按照比例修改resize。 现在需要改一个自己的定制大小; 阅读全文
摘要:
复制文件到指定目录下: 参考:https://www.cnblogs.com/zhangboblogs/p/7821702.html 阅读全文
摘要:
https://mxnet.incubator.apache.org/tutorials/basic/module.html 阅读全文
摘要:
https://github.com/tornadomeet/ResNet 图片地址: 看情况,可能要强转一下uits[i] - 1 为 int 型 整个代码还是很高质量的(垃圾代码,真香),不过是原生的mxnet写的,要看一下原生mxnet 的写法 阅读全文
摘要:
https://mxnet.incubator.apache.org/faq/finetune.html 打包时应该要添加.lst后缀,源码地址: https://github.com/apache/incubator-mxnet/blob/master/tools/im2rec.py#L340 阅读全文
摘要:
图像的标签在一个json文件中。 数据整理就差不多了,然后就是建网络,跑模型了。 阅读全文
摘要:
多维函数梯度(偏导数组成) 方向导数: 迭代方程: 发现,最优值取值在x1=0,x2=0 附近 阅读全文
摘要:
根据泰勒展开式: 于是: 于是,我们可以通过迭代 x,不断减小 f(x) 参数太小,使得到达不了最优值,参数太大,那这个泰勒展开式不成立,f(x) 可能不会减小。 阅读全文
摘要:
precision = 5 / 8 (预测中/视野) recall = 5 / 12 (预测中/个数总和) F1 - score = 2 * precision * recall / (precion + recall) 阅读全文
摘要:
从最简单的线性回归来说,小批量随机梯度下降的时候,X,y 从迭代器中取出,也是bach_size大小的数据集,那么网络的计算,同样也是小批量的。 即代码 l = loss(net(X),y) 包含了,小批量数据集,每一个数据丢到网络中,计算出返回值以后,和真实值得损失。 阅读全文
摘要:
http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
摘要:
http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
摘要:
多层感知机中: hi 以 p 的概率被丢弃,以 1-p 的概率被拉伸,除以 1 - p 阅读全文
摘要:
from mxnet import gluon,init,nd,autograd from mxnet.gluon import data as gdata,nn from mxnet.gluon import loss as gloss import mxnet as mx import time import os import sys # 建立网络 net = nn.Sequentia... 阅读全文
摘要:
import mxnet as mx from mxnet import autograd, gluon, init, nd from mxnet.gluon import loss as gloss, nn from mxnet.gluon import data as gdata import time import sys net = nn.Sequential() net.add(nn... 阅读全文
摘要:
import mxnet as mx import sys from mxnet import autograd,nd from mxnet import gluon,init from mxnet.gluon import nn,loss as gloss from mxnet.gluon import data as gdata # 读取数据 mnist_train = gdata.vi... 阅读全文