上一页 1 ··· 5 6 7 8 9 10 11 下一页
摘要: __init__.py 文件定义了包的属性和方法。其实它可以什么也不定义;可以只是一个空文件,但是必须存在。如果 __init__.py 不存在,这个目录就仅仅是一个目录,而不是一个包,它就不能被导入或者包含其它的模块和嵌套包。 作用: 1、Python包的标识符。python包实际上就是一个文件夹 阅读全文
posted @ 2019-01-18 13:54 老王哈哈哈 阅读(2421) 评论(0) 推荐(0) 编辑
摘要: 在卷积神经网络中。常见到的激活函数有Relu层 layer { name: "relu1" type: "ReLU" bottom: "pool1" top: "pool1" }其中可选参数为:negative_slope:默认为0. 对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数时 阅读全文
posted @ 2019-01-18 10:53 老王哈哈哈 阅读(1675) 评论(0) 推荐(0) 编辑
摘要: 1.开头不同 对train_val.prototxt文件来说,开头部分定义训练和测试的网络及参数 对deploy.prototxt文件来说,开头部分定义实际运用场景的配置文件,其参数不定义数据来源,仅定义数据输入的格式大小 如下: train_val.prototxt deploy.prototxt 阅读全文
posted @ 2019-01-17 17:21 老王哈哈哈 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 需要的文件为:deploy.prototxt caffemodel net = caffe.Net(deploy.txt,caffe_model,caffe.TEST)具体代码: import caffeimport numpy as nproot='/home/xxx/' #根目录deploy=r 阅读全文
posted @ 2019-01-17 17:00 老王哈哈哈 阅读(1589) 评论(0) 推荐(0) 编辑
摘要: 对于卷积层,向下取整 对于池化层:想上取整 output=((input+2*pad-dilation*(kernel-1)+1)/stride)+1 input:输入尺寸 output:输出尺寸 pad:边界填充(一般为0) dilation:卷积核膨胀系数(一般为1,不膨胀) stride:步长 阅读全文
posted @ 2019-01-17 16:35 老王哈哈哈 阅读(1931) 评论(0) 推荐(0) 编辑
摘要: 在文章https://www.cnblogs.com/liang-io/p/9857835.html里面有介绍vim编辑器的使用 阅读全文
posted @ 2019-01-17 16:18 老王哈哈哈 阅读(126) 评论(0) 推荐(0) 编辑
摘要: lr_policy可以设置为下面这些值,相应的学习率的计算为: - fixed: 保持base_lr不变. - step: 如果设置为step,则还需要设置一个stepsize, 返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示当前的迭代次 阅读全文
posted @ 2019-01-17 14:55 老王哈哈哈 阅读(1845) 评论(0) 推荐(0) 编辑
摘要: caffe训练过程中会生成.caffemodel和.solverstate文件,其中caffemodel为模型训练文件,可用于参数解析,solverstate为中间状态文件 当训练过程由于断电等因素中断时,可用solverstate文件继续执行,具体运行脚本和训练脚本类似,只需添加snapshot状 阅读全文
posted @ 2019-01-17 14:22 老王哈哈哈 阅读(1225) 评论(0) 推荐(0) 编辑
摘要: 在修改propotxt之前我们可以对之前的网络结构进行一个直观的认识: 可以使用http://ethereon.github.io/netscope/#/editor 这个网址。 将propotxt文件内容复制后会得到可视化模型。 阅读全文
posted @ 2019-01-17 14:14 老王哈哈哈 阅读(908) 评论(0) 推荐(0) 编辑
摘要: 见文章http://www.cnblogs.com/handsomecui/p/5869361.html 阅读全文
posted @ 2019-01-17 14:11 老王哈哈哈 阅读(257) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 下一页