摘要: import tensorflow as tf from numpy.random import RandomState # 定义训练数据batch的大小 batch_size = 8 # 定义神经网络的参数 w1 = tf.Variable(tf.random_normal([2, 3], stddev=1, seed=1)) w2 = tf.Variable(tf.rando... 阅读全文
posted @ 2018-09-06 16:57 肖邦、维也纳 阅读(213) 评论(0) 推荐(0) 编辑
摘要: 熵其实是信息量的期望值,它是一个随机变量的确定性的度量。熵越大,变量的取值越不确定,反之就越确定 参考链接:https://blog.csdn.net/rtygbwwwerr/article/details/50778098 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细 阅读全文
posted @ 2018-09-05 21:07 肖邦、维也纳 阅读(402) 评论(0) 推荐(0) 编辑
摘要: RBF神经网络:径向基函数神经网络(Radical Basis Function) GRNN神经网络:广义回归神经网络(General Regression Neural Network) PNN神经网络:概率神经网络(Probabilistic Neural Network) 径向基函数神经网络的 阅读全文
posted @ 2018-09-05 21:07 肖邦、维也纳 阅读(11868) 评论(0) 推荐(1) 编辑
摘要: 1、知识点: A、BP神经网络:信号是前向传播,误差是反向传播,BP是算法,它不代表神经网络的结构; B、BP神经网络是有导师学习的神经网络,在训练的时候,需要指定输入和输出,让它知道这个输入对应这个输出,让它清楚每次训练的过程,然后他的神经元的输出和理想值目标有多大的误差,这样才会有误差反向传播这 阅读全文
posted @ 2018-09-05 21:07 肖邦、维也纳 阅读(2405) 评论(0) 推荐(0) 编辑
摘要: 竞争神经网络学习 竞争型神经网络是基于无监督学习(Unsupervised learning)方法的神经网络的一种重要类型,它经常作为基本的网络形式,构成其它一些具有自组织能力的网络,如自组织映射网络(SOM)、自适应共振理论网络、学习向量量化网络等。 生物神经网络存在一种侧抑制的现象,即一个神经细 阅读全文
posted @ 2018-09-05 21:06 肖邦、维也纳 阅读(3236) 评论(0) 推荐(0) 编辑
摘要: 1. 综述 1.1 Cover和Hart在1968年提出了最初的邻近算法 1.2 分类(classification)算法|回归算法,这里讨论的是分类算法 1.3 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning) 2.1 步骤 为了判断未 阅读全文
posted @ 2018-09-05 21:06 肖邦、维也纳 阅读(350) 评论(0) 推荐(0) 编辑
摘要: 1. 什么是决策树/判定树(decision tree)? 判定树是一个类似于流程图的树结构:其中,每个内部结点表示在一个属性上的测试,每个分支代表一个属性输出,而每个树叶结点代表类或类分布。树的最顶层是根结点。 2. 机器学习中分类方法中的一个重要算法 3. 构造决策树的基本算法 分支 根结点 结 阅读全文
posted @ 2018-09-05 21:06 肖邦、维也纳 阅读(578) 评论(0) 推荐(0) 编辑
摘要: RNN循环神经网络(Recurrent Neural Network) 什么是RNN? RNN的目的是用来处理序列数据。RNN之所以称为循环神经网络,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNN能够对任何长度的序列数据进行处 阅读全文
posted @ 2018-09-05 21:06 肖邦、维也纳 阅读(1746) 评论(0) 推荐(0) 编辑
摘要: 参考链接地址:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/ 1、TensorFlow 基础架构 TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 阅读全文
posted @ 2018-09-05 21:05 肖邦、维也纳 阅读(421) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络的层级结构 1 数据输入层|input layer 该层要做的处理主要是对原始图像数据进行预处理,包括:去均值、归一化、PCA|白化。 去均值:把输入数据各个维度都中心化为0,其目的就是把样本的中心拉回到坐标系原点上。 归一化:幅度归一化到同样的范围。 PCA|白化:用PCA降维;白化是 阅读全文
posted @ 2018-09-05 21:05 肖邦、维也纳 阅读(479) 评论(0) 推荐(0) 编辑