摘要: 一、TensorFlow基础使用 创建、启动图 需要建立一个会话,才能得到两个常量的乘积 变量 tensorflow的简单使用 1 #使用numpy生成100个随机点 2 x_data = np.random.rand(100) 3 y_data = x_data*0.1 + 0.2 4 5 #构建 阅读全文
posted @ 2018-07-26 18:36 KAMINI 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 前向传播 如图所示,这里讲得已经很清楚了,前向传播的思想比较简单。 举个例子,假设上一层结点i,j,k,…等一些结点与本层的结点w有连接,那么结点w的值怎么算呢?就是通过上一层的i,j,k等结点以及对应的连接权值进行加权和运算,最终结果再加上一个偏置项(图中为了简单省略了),最后在通过一个非线性函数 阅读全文
posted @ 2018-07-26 16:34 KAMINI 阅读(532) 评论(0) 推荐(0) 编辑
摘要: 什么是激活函数 什么是激活函数 激活函数(Activation functions)对于人工神经网络 [1] 模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。如图1,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是 阅读全文
posted @ 2018-07-26 14:04 KAMINI 阅读(9472) 评论(0) 推荐(0) 编辑
摘要: 损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可 阅读全文
posted @ 2018-07-26 11:25 KAMINI 阅读(4018) 评论(0) 推荐(0) 编辑