随笔分类 - tensorflow
深度学习开源框架
摘要:本文转自:https://zhuanlan.zhihu.com/p/27238630 在学习tensorflow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下tensorf
阅读全文
摘要:谷歌在大型图像数据库ImageNet上训练好了一个Inception-v3模型,这个模型我们可以直接用来进来图像分类。 下载地址:https://storage.googleapis.com/download.tensorflow.org/models/inception_dec_2015.zip
阅读全文
摘要:将训练好的模型参数保存起来,以便以后进行验证或测试,这是我们经常要做的事情。tf里面提供模型保存的是tf.train.Saver()模块。 模型保存,先要创建一个Saver对象:如 在创建这个Saver对象的时候,有一个参数我们经常会用到,就是 max_to_keep 参数,这个是用来设置保存模型的
阅读全文
摘要:在tf中,参与训练的参数可用 tf.trainable_variables()提取出来,如: 这里只能查看参数的shape和name,并没有具体的值。如果要查看参数具体的值的话,必须先初始化,即: 同理,我们也可以提取图片经过训练后的值。图片经过卷积后变成了特征,要提取这些特征,必须先把图片feed
阅读全文
摘要:池化层定义在 tensorflow/python/layers/pooling.py. 有最大值池化和均值池化。 1、tf.layers.max_pooling2d inputs: 进行池化的数据。 pool_size: 池化的核大小(pool_height, pool_width),如[3,3].
阅读全文
摘要:CNN中最重要的就是参数了,包括W,b。 我们训练CNN的最终目的就是得到最好的参数,使得目标函数取得最小值。参数的初始化也同样重要,因此微调受到很多人的重视,那么tf提供了哪些初始化参数的方法呢,我们能不能自己进行初始化呢? 所有的初始化方法都定义在tensorflow/python/ops/in
阅读全文
摘要:在tf1.0中,对卷积层重新进行了封装,比原来版本的卷积层有了很大的简化。 一、旧版本(1.0以下)的卷积函数:tf.nn.conv2d 该函数定义在tensorflow/python/ops/gen_nn_ops.py。 参数: input: 一个4维Tensor(N,H,W,C). 类型必须是以
阅读全文
摘要:tensorflow升级到1.0之后,增加了一些高级模块: 如tf.layers, tf.metrics, 和tf.losses,使得代码稍微有些简化。 任务:花卉分类 版本:tensorflow 1.0 数据:http://download.tensorflow.org/example_image
阅读全文
摘要:mnist的卷积神经网络例子和上一篇博文中的神经网络例子大部分是相同的。但是CNN层数要多一些,网络模型需要自己来构建。 程序比较复杂,我就分成几个部分来叙述。 首先,下载并加载数据: 定义四个函数,分别用于初始化权值W,初始化偏置项b, 构建卷积层和构建池化层。 接下来构建网络。整个网络由两个卷积
阅读全文
摘要:刚开始学习tf时,我们从简单的地方开始。卷积神经网络(CNN)是由简单的神经网络(NN)发展而来的,因此,我们的第一个例子,就从神经网络开始。 神经网络没有卷积功能,只有简单的三层:输入层,隐藏层和输出层。 数据从输入层输入,在隐藏层进行加权变换,最后在输出层进行输出。输出的时候,我们可以使用sof
阅读全文
摘要:一、mnist数据 深度学习的入门实例,一般就是mnist手写数字分类识别,因此我们应该先下载这个数据集。 tensorflow提供一个input_data.py文件,专门用于下载mnist数据,我们直接调用就可以了,代码如下: 执行完成后,会在当前目录下新建一个文件夹MNIST_data, 下载的
阅读全文
摘要:TensorFlow用张量这种数据结构来表示所有的数据。用一阶张量来表示向量,如:v = [1.2, 2.3, 3.5] ,如二阶张量表示矩阵,如:m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]],可以看成是方括号嵌套的层数。 1、编辑器 编写tensorflow代码,实际
阅读全文
摘要:用过一段时间的caffe后,对caffe有两点感受:1、速度确实快; 2、 太不灵活了。 深度学习技术一直在发展,但是caffe的更新跟不上进度,也许是维护团队的关系:CAFFE团队成员都是业余时间在维护和更新。导致的结果就是很多新的技术在caffe里用不了,比如RNN, LSTM,batch-no
阅读全文