摘要: tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name 阅读全文
posted @ 2017-07-21 21:14 debuggor 阅读(1911) 评论(0) 推荐(0) 编辑
摘要: 1、最大池化 max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似。 tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所 阅读全文
posted @ 2017-07-21 19:15 debuggor 阅读(1204) 评论(0) 推荐(0) 编辑
摘要: 1、Relu激活函数 Relu激活函数(The Rectified Linear Unit)表达式为:f(x)=max(0,x)。 2、tensorflow实现 输出为: [[ 0. 10. 0.] [ 0. 2. 0.]] 阅读全文
posted @ 2017-07-21 18:49 debuggor 阅读(4172) 评论(0) 推荐(0) 编辑
摘要: 1、函数 函数:f(z) = 1 / (1 + exp( − z)) 导数:f(z)' = f(z)(1 − f(z)) 2、tensorflow实现 输出为: [[ 5.00000000e-01 9.99954581e-01 4.53978719e-05] [ 7.31058598e-01 8.8 阅读全文
posted @ 2017-07-21 18:37 debuggor 阅读(10938) 评论(0) 推荐(0) 编辑
摘要: 恢复内容开始 1、softmax函数 2、tensorflow实现例子 输出为: [[ 0.2 0.2 0.2]][[ 0.33333334 0.33333334 0.33333334]][1 3] 输出为: [[ 0.2 0.2 0.2] [ 1. 2. 3. ]][[ 0.33333334 0. 阅读全文
posted @ 2017-07-21 18:12 debuggor 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-21 17:40 debuggor 阅读(128) 评论(0) 推荐(0) 编辑