上一页 1 2 3 4 5 6 7 8 ··· 10 下一页
摘要: import caffe solver_file = "solver.prototxt" solverstate = "xx.solverstate" caffe.set_device(0) caffe.set_mode_gpu() solver = caffe.get_solver(solver_file) solver.restore(solverstate) solver.s... 阅读全文
posted @ 2018-10-19 23:55 HOU_JUN 阅读(694) 评论(0) 推荐(0) 编辑
摘要: 作者:eclipSYcn 来源:CSDN 原文:https://blog.csdn.net/Eclipsesy/article/details/79109500 版权声明:本文为博主原创文章,转载请附上博文链接! 阅读全文
posted @ 2018-10-19 14:46 HOU_JUN 阅读(1228) 评论(0) 推荐(0) 编辑
摘要: 转自 作者:Peanut_范 来源:CSDN 原文:https://blog.csdn.net/u013841196/article/details/72799680 版权声明:本文为博主原创文章,转载请附上博文链接! 使用python对Caffe框架训练好的模型进行识别时发现通道转换的若干问题:要 阅读全文
posted @ 2018-10-18 17:29 HOU_JUN 阅读(1044) 评论(0) 推荐(0) 编辑
摘要: caffe 阅读全文
posted @ 2018-10-18 10:49 HOU_JUN 阅读(867) 评论(0) 推荐(0) 编辑
摘要: 多进程 阅读全文
posted @ 2018-10-10 16:11 HOU_JUN 阅读(2473) 评论(0) 推荐(0) 编辑
摘要: 数据按比例切分 阅读全文
posted @ 2018-10-10 15:38 HOU_JUN 阅读(21092) 评论(0) 推荐(1) 编辑
摘要: SSD(single shot multibox detector)算法及Caffe代码详解 https://blog.csdn.net/u014380165/article/details/72824889 其中caffe中的特殊层的解释 http://caffe.berkeleyvision.o 阅读全文
posted @ 2018-05-22 00:25 HOU_JUN 阅读(6050) 评论(0) 推荐(0) 编辑
摘要: #coding: utf-8 from tensorflow.examples.tutorials.mnist import input_data import scipy.misc import os # 读取MNIST数据集。如果不存在会事先下载。 mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # 我们把原始... 阅读全文
posted @ 2018-05-09 21:39 HOU_JUN 阅读(7208) 评论(0) 推荐(0) 编辑
摘要: 此模型中,输入是28*28*1的图片,经过两个卷积层(卷积+池化)层之后,尺寸变为7*7*64,将最后一个卷积层展成一个以为向量,然后接两个全连接层,第一个全连接层加一个dropout,最后一个全连接层输出10个分类的预测结果,然后计算损失,进行训练。 代码如下: 阅读全文
posted @ 2018-05-09 21:23 HOU_JUN 阅读(4416) 评论(0) 推荐(0) 编辑
摘要: 损失函数是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子: 其中,前面 阅读全文
posted @ 2018-04-27 01:14 HOU_JUN 阅读(8921) 评论(0) 推荐(0) 编辑
摘要: 关于过拟合的问题 1、什么是过拟合? 过拟合(overfitting)是指学习时选择的模型所包含的参数过多(即模型容量很大),以至于出现这一模型对已知数据预测得很好,但对未知数据预测得很差的现象。 2、产生过拟合的原因 产生过拟合的主要原因可以有以下三点: 1) 数据有噪声 为什么数据有噪声,就可能 阅读全文
posted @ 2018-04-27 01:09 HOU_JUN 阅读(6179) 评论(0) 推荐(1) 编辑
摘要: 一、简介 VGGNet是计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研究的深度卷积神经网络。VGGNet探索了卷积神经网络深度与性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层(这里 阅读全文
posted @ 2018-04-27 00:56 HOU_JUN 阅读(4773) 评论(0) 推荐(1) 编辑
摘要: 谁创造了AlexNet? AlexNet是有Hinton大神的弟子Alex Krizhevsky提出的深度卷积神经网络。它可视为LeNet的更深更宽的版本。 AlexNet主要用到的技术 成功使用ReLU作为CNN的激活函数,并验证了其效果在较深的神经网络超过了sigmiod,成功解决了sigmoi 阅读全文
posted @ 2018-04-26 21:33 HOU_JUN 阅读(829) 评论(0) 推荐(0) 编辑
摘要: 转自:https://blog.csdn.net/jlei_apple/article/details/8168856 这两天在看关于boosting算法时,看到一篇不错的文章讲bootstrap, jackknife, bagging, boosting, random forest 都有介绍,以 阅读全文
posted @ 2018-04-25 17:25 HOU_JUN 阅读(293) 评论(0) 推荐(0) 编辑
摘要: TensorFlow是一个通过计算图的形式来表述计算的编程系统。其中的Tnesor,代表它的数据结构,而Flow代表它的计算模型。TensorFlow中的每一个计算都是计算图上的一个节点,而节点之间的线描述了计算之间的依赖关系。 在TensorFlow程序中,系统会自动维护一个默认的计算图,通过tf 阅读全文
posted @ 2018-04-13 22:09 HOU_JUN 阅读(2350) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 10 下一页