摘要:
我们将先描述卷积神经⽹络中卷积层和池化层的⼯作原理,并解释填充、步幅、输⼊通道和输出通道的含义。掌握了这些基础知识以后,我们将探究数个具有代表性的深度卷积神经⽹络的设计思路。 卷积神经⽹络是含有卷积层(convolutional layer)的神经⽹络,以常见的二维卷积层为例,它有⾼和宽两个空间维度 阅读全文
摘要:
已知数据文件,例如csv文件。那么tensorflow怎么来读取数据文件呢。 1.构造一个文件队列 2.读取队列内容(这里的队列内容是文件路径) 3.解析队列中文件内容 4.批处理文件数据(为了主线程要拿这里的文件数据进行训练) 阅读全文
摘要:
相对于经典网络(输入层,隐藏层,输出层),ESN(回声状态网络)有三部分组成(输入层,储存池,输出层),ESN通过随机部署大规模的系数链接的神经元构成网络隐层,一般称为 “储存池”,ESN的特点是: 包含数目较多的神经元 神经元之间的连接关系是随机产生的 神经元之间的连接具有稀疏性 1.什么是稀疏性 阅读全文
摘要:
队列管理器的创建: tf.train.QueueRunner(queue,enqueue_ops = None): 参数解释: queue:一个队列 enqueue_ops :添加线程的队列操作的列表,[]*2就是指定两个线程 create_threads(sess,coord=None,start 阅读全文
摘要:
#用队列来模拟一下同步的过程,这里的同步指的是:想把所有的数据处理完放到一个队列中,然后主线程才会去读取数据的一个过程 #而不是子线程一边去处理数据,主线程一边去读取数据,这是异步啊 import tensorflow as tf import os os.environ['TF_CPP_MIN_L 阅读全文
摘要:
线性回归:w1x1+w2x2+w3x3+......+wnxn+bias(这是一个偏移量),我们采用的算法是:线性回归,策略是:均方误差,优化是:梯度下降API, 1.转准备好实验的数据:100个数据,每一个有一个特征值,所以形成一个【100,1】的列表,在准备一个目标函数:y=0.8x+0.7那么 阅读全文
摘要:
随机数的产生: tf.random_normal(形状,平均值,方差); 例如: a = tf.random_normal([2,3],mean = 1.0,stddev = 1.0) with tf.Session() as sess: print(sess.run(a)) 变量op: 作用:变量 阅读全文
摘要:
import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#把报错的这个警告等级降低 #图:默认已经注册,一组表示tf.Operation(节点)计算单元的对象和tf.Tensor(张量)操作之间的数据单元的对 阅读全文
摘要:
一,多维数组 1.numpy中的多维数组是numpy.ndarray类类型的对象,可用于表示数据结构中任意维度的数组 2.创建多维数组的对象 方法一:numpy.arange(起始值,终止值,步长),默认起始值是0,步长是1,终止值不可缺省,这个返回的是数组 方法二:numpy.array(任何可被 阅读全文
摘要:
我们可以像如下这样创建一个属于自己的.csv文件,其中的newline=''是为了解决我们创建的CSV文件里多一个空行的问题,用这种方法可以去掉这个空行 import csv #创建文件对象 f = open('data1.csv','w',encoding='utf-8',newline='') 阅读全文