// // // //

随笔分类 -  AI深度学习框架-TensorFlow

 
tensorflow基础【1】-Tensor
摘要:tensor 即张量,是 tf 的核心数据结构,它可以是一个标量、向量、矩阵、多维数组 基本属性 Tensor 有 3 个基本属性 d2 = tf.constant([1., 2.]) print(d2) # Tensor("Const:0", shape=(2,), dtype=float32) 阅读全文
posted @ 2020-02-24 14:41 努力的孔子 阅读(692) 评论(0) 推荐(0) 编辑
tensorflow基础【0】-安装
摘要:安装过程略... 异常记录 异常一 输入import tensorflow as tf 后出现一连串警告: FutureWarning: Passing (type, 1) or '1type' as a synonym of type is deprecated; in a future vers 阅读全文
posted @ 2020-02-24 14:40 努力的孔子 阅读(133) 评论(0) 推荐(0) 编辑
tensorflow - 图像预处理
摘要:tensorflow 中自带了很多图像处理的方法,基本都在 tf.image 模块中,虽然不如 opencv 强大,但也比较常用,这里做个记录。 图像编解码 1. 用 tf 的方法读取图片后,都需要进行编解码,才能在 tf 中继续处理; 2. tf 提供了各种类型图像的编解码:decode_gif, 阅读全文
posted @ 2019-09-03 09:40 努力的孔子 阅读(2009) 评论(0) 推荐(0) 编辑
tensorflow - 图片读取汇总
摘要:图片读取有多种方式,这里先记录几种,以后慢慢更新 tf.read_file 直接读取图片内容,需要解码;输出为Tensor,需要转换数据格式 示例代码 filename = 'myfiles/2.png' img_content = tf.read_file(filename) # 读取图片 img 阅读全文
posted @ 2019-03-31 10:55 努力的孔子 阅读(617) 评论(0) 推荐(0) 编辑
tensorflow基础【4】-计算图 graph
摘要:tensorflow,tensor就是数据,flow就是流,tensorflow就是数据流 tensorflow 是一个用计算图的形式来表示计算的编程系统,所有的数据和计算都会被转化成计算图上的一个节点,节点之间的边就是数据流(数据流动的轨迹)。 graph 和 session 的关系 tensor 阅读全文
posted @ 2019-03-31 09:43 努力的孔子 阅读(1530) 评论(0) 推荐(0) 编辑
tf 模型保存
摘要:tf用 tf.train.Saver类来实现神经网络模型的保存和读取。无论保存还是读取,都首先要创建saver对象。 用saver对象的save方法保存模型 保存的是所有变量 保存模型需要session,初始化变量 用法示例 输出 1. global_step 放在文件名后面,起个标记作用 2. s 阅读全文
posted @ 2019-03-29 12:02 努力的孔子 阅读(2180) 评论(0) 推荐(1) 编辑
tensorflow基础【10】-队列与多线程
摘要:队列 tf与python一样,有多种队列 tf.FIFOQueue 先入先出 tf.RandomShuffleQueue 随机出队 tf.PaddingFIFOQueue 以固定长度批量出列的队列 tf.PriorityQueue 带优先级出列的队列 使用逻辑都类似 tf.FIFOQueue(cap 阅读全文
posted @ 2019-03-27 15:39 努力的孔子 阅读(912) 评论(0) 推荐(0) 编辑
异常记录-No module named 'numpy.core._multiarray_umath
摘要:问题描述: 明明安装了numpy,而且经常使用并没有发生错误,却发生如下错误 No module named 'numpy.core._multiarray_umath 解决方法: 1. 可能是由于模型保存时出错,导致模型没有保存成功,此时删掉保存的模型即可 2. numpy版本太低 显示版本 pi 阅读全文
posted @ 2019-03-27 15:36 努力的孔子 阅读(11811) 评论(0) 推荐(0) 编辑
tensorflow基础【9】-读取数据
摘要:官网解释说 tensorflow 读取数据有 3 种方式 1. feed:供给数据,每次迭代 临时 生成数据,喂给 模型 2. 从文件中读取:本文主讲 3. 预加载数据:定义常量或者变量来保存数据,仅适用小数据量 从文件读取有 3 大步骤 1. 生成读取器,不同类型的文件有对应的读取器 2. 把文件 阅读全文
posted @ 2019-03-27 09:08 努力的孔子 阅读(546) 评论(0) 推荐(0) 编辑
CNN 经典网络之-ResNet
摘要:resnet 又叫深度残差网络 图像识别准确率很高,主要作者是国人哦 深度网络的退化问题 深度网络难以训练,梯度消失,梯度爆炸,老生常谈,不多说 resnet 解决了这个问题,并且将网络深度扩展到了最多152层。怎么解决的呢? 残差学习 结构如图 在普通的卷积过程中加入了一个x的恒等映射(ident 阅读全文
posted @ 2019-03-22 14:02 努力的孔子 阅读(23185) 评论(1) 推荐(2) 编辑
强化学习10-Deep Q Learning-fix target
摘要:针对 Deep Q Learning 可能无法收敛的问题,这里提出了一种 fix target 的方法,就是冻结现实神经网络,延时更新参数。 这个方法的初衷是这样的: 1. 之前我们每个(批)记忆都会更新参数,这是一种实时更新神经网络参数的方法,这个方法有个问题,就是每次都更新,由于样本都是随机的, 阅读全文
posted @ 2019-03-20 09:53 努力的孔子 阅读(1301) 评论(0) 推荐(0) 编辑
强化学习9-Deep Q Learning
摘要:之前讲到Sarsa和Q Learning都不太适合解决大规模问题,为什么呢? 因为传统的强化学习都有一张Q表,这张Q表记录了每个状态下,每个动作的q值,但是现实问题往往极其复杂,其状态非常多,甚至是连续的, 比如足球场上足球的位置,此时,内存将无力承受这张Q表。 价值函数近似 既然Q表太大,那么怎么 阅读全文
posted @ 2019-03-19 18:28 努力的孔子 阅读(1706) 评论(0) 推荐(0) 编辑
rnn-nlp-单词预测
摘要:理解这个代码之前最好先理解LSTM手写数字识别。 类比图像解释自然语言处理 1. 自然语言的输入需要先把句子截成固定长度的片段,这就是一个序列,也就是一张图片,片段中的每一个字或者词就是图片的一行,lstm每个时序输入这个字或者词。 2. 不同之处在于,自然语言每个时序都有x和y,y就是x后的那个字 阅读全文
posted @ 2019-03-18 10:45 努力的孔子 阅读(1568) 评论(0) 推荐(0) 编辑
tensorflow基础【6】-共享变量与作用域
摘要:共享变量 tf.Variable 创建唯一变量:当系统检测到命名冲突会自动处理,保证了变量的唯一性,也就是不可复用, ######################### Variable 无法共享 ######################### v1 = tf.Variable(tf.rando 阅读全文
posted @ 2019-03-15 18:27 努力的孔子 阅读(1474) 评论(0) 推荐(0) 编辑
rnn-手写数字识别-网络结构-shape
摘要:手写数字识别经典案例,目标是: 1. 掌握tf编写RNN的方法 2. 剖析RNN网络结构 tensorflow编程 如果你非常熟悉rnn,代码整体上还是比较好理解的,但是里面涉及许多次的shape设置,比较让人头大,特别是后期写各种rnn时,很容易迷糊,所以每个模型都要理解透彻。 以上代码涉及到sh 阅读全文
posted @ 2019-03-14 21:01 努力的孔子 阅读(1582) 评论(0) 推荐(0) 编辑
tensorflow-LSTM-网络输出与多隐层节点
摘要:本文从tensorflow的代码层面理解LSTM。 看本文之前,需要先看我的这两篇博客 https://www.cnblogs.com/yanshw/p/10495745.html 谈到网络结构 https://www.cnblogs.com/yanshw/p/10515436.html 谈到多隐层 阅读全文
posted @ 2019-03-14 09:47 努力的孔子 阅读(3934) 评论(0) 推荐(1) 编辑
循环神经网络-Dropout
摘要:dropout 是 regularization 方法,在rnn中使用方法不同于cnn 对于rnn的部分不进行dropout,也就是说从t-1时候的状态传递到t时刻进行计算时,这个中间不进行memory的dropout;仅在同一个t时刻中,多层cell之间传递信息的时候进行dropout。 因此,我 阅读全文
posted @ 2019-03-13 11:42 努力的孔子 阅读(1010) 评论(0) 推荐(0) 编辑
tensorflow基础【8】-优化器
摘要:优化器可以通俗的理解成梯度下降那一套流程。 梯度下降 基本流程 a. 损失函数 b. 求导,计算梯度 c. 更新参数 d. 迭代下一批样本 可以对照着理解tf。 tf 优化器 正常使用流程 a. 创建优化器(也就是选择优化方法,只是选择方法,其他什么也没做) b. 指定损失函数和可优化参数 c. m 阅读全文
posted @ 2019-03-13 11:07 努力的孔子 阅读(815) 评论(0) 推荐(0) 编辑
tensorflow基础【7】-loss function
摘要:cross entropy 交叉熵,tensorflow 对 cross entropy 进行了集成: 1. 二分类和多分类公式集成,共用一个 API; p(x) 真实标签,q(x) 预测概率; 2. 把 sigmoid 、softmax 等集成到 cross entropy 中; 正常情况下,神经 阅读全文
posted @ 2019-03-12 17:39 努力的孔子 阅读(898) 评论(0) 推荐(0) 编辑
循环神经网络(五)-LSTM进阶
摘要:基础的LSTM模型,单隐层,隐层单神经元,而实际中一般需要更为复杂的网络结构, 下面借用手写数字的经典案例构造比较复杂的LSTM模型,并用代码实现。 单隐层,隐层多神经元 # -*- coding:utf-8 -*- import tensorflow as tf from tensorflow.e 阅读全文
posted @ 2019-03-08 15:52 努力的孔子 阅读(925) 评论(0) 推荐(0) 编辑

 

点击右上角即可分享
微信分享提示