摘要: 前言8.1 mnist_soft,TensorFlow构建回归模型中对主要对计算图的概念与公式与计算图的转化进行了介绍,8.2则主要介绍一下TensorFlow中自带的几个算子,与优化函数,损失函数的定义,并以KNN的例子进行整体的串联.加载数据,依旧使用mnist手... 阅读全文
posted @ 2017-09-13 22:42 FontTian 阅读(339) 评论(0) 推荐(0) 编辑
摘要: 前言8.1 mnist_soft,TensorFlow构建回归模型中对主要对计算图的概念与公式与计算图的转化进行了介绍,8.2则主要介绍一下TensorFlow中自带的几个算子,与优化函数,损失函数的定义,并以KNN的例子进行整体的串联.加载数据,依旧使用mnist手... 阅读全文
posted @ 2017-09-13 22:42 FontTian 阅读(129) 评论(0) 推荐(0) 编辑
摘要: 前言之前的8.1 构建回归模型的重点在于计算图概念,8.2则介绍一些在整个流程中更靠后的部分:损失函数,优化函数,以及一些其他常用的函数.而本片中的重点在于构建计算图,与模型的训练与测试BP代码与讲解设置数据之所以对第一次生成的随机数据进行存储主要是为了能够进行后面的... 阅读全文
posted @ 2017-09-13 20:58 FontTian 阅读(539) 评论(0) 推荐(0) 编辑
摘要: 前言之前的8.1 构建回归模型的重点在于计算图概念,8.2则介绍一些在整个流程中更靠后的部分:损失函数,优化函数,以及一些其他常用的函数.而本片中的重点在于构建计算图,与模型的训练与测试BP代码与讲解设置数据之所以对第一次生成的随机数据进行存储主要是为了能够进行后面的... 阅读全文
posted @ 2017-09-13 20:58 FontTian 阅读(617) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://zhuanlan.zhihu.com/p/25110150TLDR (or the take-away)Weight Initialization matters!!! 深度学习中的weight initialization对模型收敛速度和模型... 阅读全文
posted @ 2017-09-13 20:19 FontTian 阅读(237) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://zhuanlan.zhihu.com/p/25110150TLDR (or the take-away)Weight Initialization matters!!! 深度学习中的weight initialization对模型收敛速度和模型... 阅读全文
posted @ 2017-09-13 20:19 FontTian 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://zhuanlan.zhihu.com/p/25110450TLDR (or the take-away)优先使用ReLU (Rectified Linear Unit) 函数作为神经元的activation function:背景深度学习的基本... 阅读全文
posted @ 2017-09-13 20:17 FontTian 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://zhuanlan.zhihu.com/p/25110450TLDR (or the take-away)优先使用ReLU (Rectified Linear Unit) 函数作为神经元的activation function:背景深度学习的基本... 阅读全文
posted @ 2017-09-13 20:17 FontTian 阅读(176) 评论(0) 推荐(0) 编辑