摘要: 记录在unbantu14.04, caffe框架下对MobileNet的自有数据集fine tune。 首先git clone一下caffe版本的mobilenet https://github.com/shicai/MobileNet-Caffe.git 然后把deploy.prototxt文件修 阅读全文
posted @ 2018-09-10 19:17 InsistPy 阅读(1654) 评论(1) 推荐(0) 编辑
摘要: SSD就不多介绍了,是今年非常流行的Object detection 模型:对各大数据集的测试结果如下表。 首先要git weiliu版本的caffe 然后在unbantu上对caffe进行配置,百度一下教程 首先要准备VGG16 的模型without fc layer 的版本,下载地址:https 阅读全文
posted @ 2018-09-08 17:52 InsistPy 阅读(884) 评论(0) 推荐(0) 编辑
摘要: 对应之前的tensorflow的optimizor,再次回顾一下,solver就是使得loss最小化的方法。,对于一个数据集,我们需要优化的目标函数是整个数据集中所有数据loss的平均值。 其中,fW(x(i))计算的是数据x(i)上的loss, 先将每个单独的样本x的loss求出来,然后求和,最后 阅读全文
posted @ 2018-09-04 14:23 InsistPy 阅读(305) 评论(0) 推荐(0) 编辑
摘要: Blob,layer Net, solver配置文件的编写 blob: 数据节点,4维数组:num, channel, width, height,相当于 一个tensor, n个tensor组成, n deminsional 矩阵。 在一个卷积层中,输入一张3通道图片,有96个卷积核,每个核大小为 阅读全文
posted @ 2018-09-04 14:10 InsistPy 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 继续layer的学习。 cafee中的卷积层: param:只有一个为权重的学习率,两个的话第二个为bias的学习率,最终的学习率需要这个数乘以solver.prototxt配置文件中的base_lr。 num_output:卷积核个数 kernel_size": filter size,如果 h 阅读全文
posted @ 2018-09-04 11:30 InsistPy 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 在深度学习零率,caffe是一个非常高效的的图像处理框架,结合了nvidia的cuda,cudnn加速技术,非常适合进行AI CNN方向的图像分类,回归,分割等。 但是由于caffe的教程较少,而且配置比较复杂,可能用的人没有tf那么广泛。 昨天在Ubantu14.04上配置了caffe, CUDA 阅读全文
posted @ 2018-09-04 10:41 InsistPy 阅读(360) 评论(0) 推荐(0) 编辑
摘要: GoogleNet的发展 Inception V1: Inception V1中精心设计的Inception Module提高了参数的利用率;nception V1去除了模型最后的全连接层,用全局平均池化层(将图片尺寸变为1x1),在先前的网络中,全连接层占据了网络的大部分参数,很容易产生过拟合现象 阅读全文
posted @ 2018-08-24 21:56 InsistPy 阅读(1054) 评论(0) 推荐(0) 编辑
摘要: 构建更多训练数据 阅读全文
posted @ 2018-08-22 16:54 InsistPy 阅读(423) 评论(0) 推荐(0) 编辑
摘要: 在设计卷积神经网络架构时,有时候想压缩input的width 和 height,通常的做法便是 加一层pooling layer。 但是第三维的信息,有时候过多,而且过于复杂,这时候就要用到1x1xchannel的filter了。 如图: 1X1x192的filter相当于对图片的某一个像素点进行神 阅读全文
posted @ 2018-08-22 15:43 InsistPy 阅读(491) 评论(0) 推荐(0) 编辑
摘要: optimizer是在训练中,运用到的训练方法,最常用的是梯度下降法,去寻找最优loss,tf中常见的optimizer有: 通过Dr.Sebastian Ruder 的论文An overview of gradient descent optimization algorithms来详细了解一些优 阅读全文
posted @ 2018-08-21 12:25 InsistPy 阅读(677) 评论(0) 推荐(0) 编辑
隐藏