2018年11月25日

tf.trainvable_variables和tf.all_variables的对比

摘要: tf.trainable_variables返回的是需要训练的 变量列表 tf.all_variables返回的是所有变量的列表 例如 输出: v:0 v1:0 v:0 v1:0 global_step:0 分析: 上面得到两个变量,后面的一个得到上三个变量,因为global_step在声明的时候说 阅读全文

posted @ 2018-11-25 17:42 18428329746 阅读(124) 评论(0) 推荐(0) 编辑

2018年11月20日

linux如何查询目录空间大小及清理

摘要: 通过 du sh可以查询当前目录占用存储的总空间 通过 du sh 文件夹 可以查询指定文件夹的占用空间大小 通过 du h max depth=1 可以显示当前文件夹下的各个文件及文件夹的占用空间大小 找到占用空间大的文件夹通过 rm rf ./ 将该目录下的所有文件删除(切记:有些文件夹包含用户 阅读全文

posted @ 2018-11-20 19:30 18428329746 阅读(826) 评论(0) 推荐(0) 编辑

2018年10月6日

tf.nn.dropout()介绍

摘要: 1.Dropout原理简述: Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示意图如下: 但在测试及 阅读全文

posted @ 2018-10-06 20:36 18428329746 阅读(2662) 评论(0) 推荐(0) 编辑

tf.nn.max_pool池化操作

摘要: tf.nn.max_pool(value,ksize,strides,padding,name=None) 参数是四个,和卷积很类似: : 需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的sh 阅读全文

posted @ 2018-10-06 16:11 18428329746 阅读(147) 评论(0) 推荐(0) 编辑

2018年10月4日

tf.nn.conv2d()介绍

摘要: tf.nn.conv2d(input,filter,strides,padding,use_cudnn_on_gpu=None,name=None) 第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_chann 阅读全文

posted @ 2018-10-04 21:58 18428329746 阅读(206) 评论(0) 推荐(0) 编辑

2018年9月30日

0范、1范和2范

摘要: 1、范数满足的三个特性 ① 非负性:||x||≥0||x||≥0,且||x||=0||x||=0当且仅当x=0x=0时成立 。 ② 齐次性:||k⋅x||=|k|⋅||x||||k⋅x||=|k|⋅||x|| ③ 三角不等式: ||x+y||≤||x||+||y|| 2、向量的范数 0-范数,向量中 阅读全文

posted @ 2018-09-30 18:01 18428329746 阅读(734) 评论(0) 推荐(0) 编辑

导航