摘要: 阅读全文
posted @ 2017-07-22 21:12 debuggor 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-22 21:11 debuggor 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 1、softmax_cross_entropy_with_logits tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 解释:这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个 阅读全文
posted @ 2017-07-22 20:41 debuggor 阅读(730) 评论(0) 推荐(0) 编辑
摘要: 1、l2_loss函数 tf.nn.l2_loss(t, name=None) 解释:这个函数的作用是利用 L2 范数来计算张量的误差值,但是没有开方并且只取 L2 范数的值的一半,具体如下: output = sum(t ** 2) / 2 2、tensorflow实现 输入参数: t: 一个Te 阅读全文
posted @ 2017-07-22 20:07 debuggor 阅读(12753) 评论(0) 推荐(0) 编辑
摘要: 1、l2_normalize函数 tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None) 解释:这个函数的作用是利用 L2 范数对指定维度 dim 进行标准化。 比如,对于一个一维的张量,指定维度 dim = 0,那么计算结果为: output = 阅读全文
posted @ 2017-07-22 19:56 debuggor 阅读(5342) 评论(0) 推荐(0) 编辑
摘要: 输出结果: bias_add:[[ 2. 0.] [ 3. 1.] [ 4. 2.]]add:[[ 2. 2.] [ 3. 3.] [ 4. 4.]] 阅读全文
posted @ 2017-07-22 17:30 debuggor 阅读(6787) 评论(0) 推荐(0) 编辑
摘要: 1、dropout dropout 是指在深度学习网络的训练过程中,按照一定的概率将一部分神经网络单元暂时从网络中丢弃,相当于从原始的网络中找到一个更瘦的网络,这篇博客中讲的非常详细 2、tensorflow实现 用dropout: import tensorflow as tf import nu 阅读全文
posted @ 2017-07-22 17:05 debuggor 阅读(5910) 评论(0) 推荐(0) 编辑
摘要: 参考:http://www.jianshu.com/p/e112012a4b2d 阅读全文
posted @ 2017-07-22 16:05 debuggor 阅读(311) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-22 12:20 debuggor 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-07-22 12:19 debuggor 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 按照网上教程安装好了 theano 之后,import theano 出现错误。“cannot import name gof”。网上找了很多教程,都不可行。最后找到如下教程。亲测可行!终于解决了!!!! 问题的解决方案就是安装 libpython查看 conda list确实没有 libpytho 阅读全文
posted @ 2017-07-22 12:15 debuggor 阅读(1489) 评论(0) 推荐(0) 编辑
摘要: 最近看起深度学习的一些知识,想要学习一个框架。在网上看了别人对这些框架的评比后,决定学习 tersorflow。之前一直以为 tersorflow 只可以在 Linux 下安装,出乎意料的是,Windows 下 Python3.5 也可以安装。so happy! 以下是自己的安装教程。注意:只有 P 阅读全文
posted @ 2017-07-22 12:14 debuggor 阅读(453) 评论(0) 推荐(0) 编辑
摘要: 过拟合 在进行数据挖掘或者机器学习模型建立的时候,因为在统计学习中,假设数据满足独立同分布,即当前已产生的数据可以对未来的数据进行推测与模拟,因此都是使用历史数据建立模型,即使用已经产生的数据去训练,然后使用该模型去拟合未来的数据。但是一般独立同分布的假设往往不成立,即数据的分布可能会发生变化(di 阅读全文
posted @ 2017-07-22 11:15 debuggor 阅读(6320) 评论(0) 推荐(0) 编辑
摘要: 1、softsign函数 图像 2、tensorflow softsign应用 输出结果: input:[ 0. -1. 2. -30. 30.]output:[ 0. -0.5 0.66666669 -0.96774191 0.96774191] 阅读全文
posted @ 2017-07-22 10:22 debuggor 阅读(2384) 评论(0) 推荐(0) 编辑
摘要: 1、elu函数 图像: 2、tensorflow elu应用 输出结果: input:[ 0. -1. 2. -3.]output:[ 0. -0.63212055 2. -0.95021296] 阅读全文
posted @ 2017-07-22 10:16 debuggor 阅读(2468) 评论(2) 推荐(0) 编辑
摘要: 1、softplus函数表达式 图像: 2、tensorflow 举例 输出结果: input:[ 0. 1. 2. 3.]output:[ 0.69314718 1.31326163 2.12692809 3.04858732] 阅读全文
posted @ 2017-07-22 10:02 debuggor 阅读(1791) 评论(0) 推荐(0) 编辑
摘要: 1.sigmoid函数 S(x)=1/(1+exp(-x)) 导数为:S(x)*(1-S(x))。 这个数值不会超过0.25.。通过sigmoid函数计算的函数值在0~1之间,如果神经网络的层数很多,如果每一层的激励函数采用sigmoid函数,就会产生梯度弥散的问题。因为利用BP函数更新参数的时候, 阅读全文
posted @ 2017-07-22 00:51 debuggor 阅读(900) 评论(0) 推荐(0) 编辑
摘要: 1、tanh()函数 tanh是双曲函数中的一个,tanh()为双曲正切。 双曲正切函数的导数公式: 2、tensorflow tanh()例子 import tensorflow as tf input=tf.constant([1,2,3,4],dtype=tf.float32) #在tenso 阅读全文
posted @ 2017-07-22 00:38 debuggor 阅读(1321) 评论(0) 推荐(0) 编辑
摘要: tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None) 官方教程说明: 给定四维的input和filter tensor,计算一个二维卷积 input: A T 阅读全文
posted @ 2017-07-22 00:00 debuggor 阅读(15150) 评论(0) 推荐(1) 编辑