随笔分类 -  caffe

摘要:1:训练的batch_size太小 1. 当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法收敛,batch_size=1时为在线学习。 2. batch的选择,首先决定的是下降方向,如果数据集比较小,则完全可以采用全数据集的形式。这样做的好处有两 阅读全文
posted @ 2019-01-22 14:40 老王哈哈哈 阅读(5008) 评论(0) 推荐(0) 编辑
摘要:参照博客:https://blog.csdn.net/sinat_28519535/article/details/78533319 阅读全文
posted @ 2019-01-22 14:03 老王哈哈哈 阅读(389) 评论(0) 推荐(0) 编辑
摘要:opencv的配置方式: https://blog.csdn.net/cocoaqin/article/details/78163171 输入Python时候报错: ERROR: ld.so: object '/usr/lib/libtcmalloc_minimal.so.4' from LD_PR 阅读全文
posted @ 2019-01-19 22:49 老王哈哈哈 阅读(470) 评论(0) 推荐(0) 编辑
摘要:Traceback (most recent call last):File "/opt/xuben-project/caffe/data/VOC0712/../../scripts/create_annoset.py", line 105, in <module>label_map = caffe 阅读全文
posted @ 2019-01-19 22:32 老王哈哈哈 阅读(1150) 评论(0) 推荐(0) 编辑
摘要:在卷积神经网络中。常见到的激活函数有Relu层 layer { name: "relu1" type: "ReLU" bottom: "pool1" top: "pool1" }其中可选参数为:negative_slope:默认为0. 对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数时 阅读全文
posted @ 2019-01-18 10:53 老王哈哈哈 阅读(1675) 评论(0) 推荐(0) 编辑
摘要:1.开头不同 对train_val.prototxt文件来说,开头部分定义训练和测试的网络及参数 对deploy.prototxt文件来说,开头部分定义实际运用场景的配置文件,其参数不定义数据来源,仅定义数据输入的格式大小 如下: train_val.prototxt deploy.prototxt 阅读全文
posted @ 2019-01-17 17:21 老王哈哈哈 阅读(326) 评论(0) 推荐(0) 编辑
摘要:需要的文件为:deploy.prototxt caffemodel net = caffe.Net(deploy.txt,caffe_model,caffe.TEST)具体代码: import caffeimport numpy as nproot='/home/xxx/' #根目录deploy=r 阅读全文
posted @ 2019-01-17 17:00 老王哈哈哈 阅读(1589) 评论(0) 推荐(0) 编辑
摘要:对于卷积层,向下取整 对于池化层:想上取整 output=((input+2*pad-dilation*(kernel-1)+1)/stride)+1 input:输入尺寸 output:输出尺寸 pad:边界填充(一般为0) dilation:卷积核膨胀系数(一般为1,不膨胀) stride:步长 阅读全文
posted @ 2019-01-17 16:35 老王哈哈哈 阅读(1931) 评论(0) 推荐(0) 编辑
摘要:lr_policy可以设置为下面这些值,相应的学习率的计算为: - fixed: 保持base_lr不变. - step: 如果设置为step,则还需要设置一个stepsize, 返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示当前的迭代次 阅读全文
posted @ 2019-01-17 14:55 老王哈哈哈 阅读(1845) 评论(0) 推荐(0) 编辑
摘要:caffe训练过程中会生成.caffemodel和.solverstate文件,其中caffemodel为模型训练文件,可用于参数解析,solverstate为中间状态文件 当训练过程由于断电等因素中断时,可用solverstate文件继续执行,具体运行脚本和训练脚本类似,只需添加snapshot状 阅读全文
posted @ 2019-01-17 14:22 老王哈哈哈 阅读(1229) 评论(0) 推荐(0) 编辑
摘要:在修改propotxt之前我们可以对之前的网络结构进行一个直观的认识: 可以使用http://ethereon.github.io/netscope/#/editor 这个网址。 将propotxt文件内容复制后会得到可视化模型。 阅读全文
posted @ 2019-01-17 14:14 老王哈哈哈 阅读(908) 评论(0) 推荐(0) 编辑
摘要:参见博文https://blog.csdn.net/u014510375/article/details/51704447 阅读全文
posted @ 2019-01-17 14:05 老王哈哈哈 阅读(295) 评论(0) 推荐(0) 编辑
摘要:解决办法: 修改:Makefile.config INCLUDE_DIRS /usr/include/hdf5/serial/ 修改:Makefile LIBRARIES hdf5_hl and hdf5 改为 hdf5_serial_hl ,hdf5_serial 其他make all之前的报错信 阅读全文
posted @ 2019-01-17 13:48 老王哈哈哈 阅读(4355) 评论(0) 推荐(0) 编辑
摘要:原文转载:https://blog.csdn.net/zhongshaoyy/article/details/53502373 cifar10训练步骤如下: (1)打开终端,应用cd切换路径,如 cd ~/caffe/data/cifar10 , (2)继续执行命令 ./get_cifar10.sh 阅读全文
posted @ 2019-01-17 13:37 老王哈哈哈 阅读(1830) 评论(0) 推荐(0) 编辑
摘要:在用voc2007和voc2012的数据训练基于caffe的SSD模型的时候,我们需要将图片数据转换成lmdb格式,运行脚本文件是SSD源码里面提供的create_data.sh(具体位置在$CAFFE_ROOT/data/VOC0712/create_data.sh)结果报错: 解决方法: 1.打 阅读全文
posted @ 2019-01-17 13:25 老王哈哈哈 阅读(514) 评论(0) 推荐(0) 编辑
摘要:在caffe的参数进行Python解析时,需要对模型的wight和bias的参数进行解析,为了提高结果解析的可读性,需要用numpy将解析的文件进行保存 此时用到np.savetxt方法和np.savenpy方法,而np.savetxt和np.savenpy均默认保存1维或者2维数组,此时需要更改默 阅读全文
posted @ 2019-01-17 11:41 老王哈哈哈 阅读(379) 评论(0) 推荐(0) 编辑
摘要:错误原因: 1.计算机没有安装GPU 2.有GPU但是NVCCFLAGS设置错误 解决方法: 1.对没有GPU的计算机,需要将Makefile中的CPU之前的#注释去掉,是的caffe运行的处理器进行更换 2.对于GPU环境的计算机,需要将Makefile中的NVCCFLAGS的设置更改 将:NVC 阅读全文
posted @ 2019-01-17 11:27 老王哈哈哈 阅读(5868) 评论(0) 推荐(0) 编辑
摘要:在搭建caffe的环境时出现错误: .build_release/src/caffe/proto/caffe.pb.h:23:35: fatal error: google/protobuf/arena.h: 没有那个文件 错误原因,在caffe安装之前安装了annoconda3.6的版本,版本中自 阅读全文
posted @ 2019-01-17 11:17 老王哈哈哈 阅读(3401) 评论(0) 推荐(0) 编辑
摘要:报错的两种报错原因: 1.输入数的路径错误,需要将路径进行修改排查目录是否出错 2.训练原数据格式不对 3.train.prototxt文件中并未设置test层,而在solver层则设置了test的迭代等参数 两种解决方法 1.对错误原因1,则改为正确路径 2.对错误原因2,修改create_dat 阅读全文
posted @ 2019-01-17 11:07 老王哈哈哈 阅读(993) 评论(0) 推荐(0) 编辑
摘要:运用caffe进行深度学习之前需要对图片进行预处理,将图片的大小,格式等进行修改 将300*300的图片改为256*256格式 则将以下参数改为: min_dim=256 max_dim=256 width=256 height=256 阅读全文
posted @ 2019-01-17 10:45 老王哈哈哈 阅读(637) 评论(0) 推荐(0) 编辑