摘要: 注意下面一个点就ok了 效果如图: 阅读全文
posted @ 2019-10-14 11:16 博博的Blog 阅读(189) 评论(0) 推荐(0) 编辑
摘要: 各模块含义 1 表示一个Batch的大小是不确定的 2 当两个节点之间传输的张量多与1时,可视化效果图将只显示张量的个数 3 效果图上的粗细表示两个节点之间传输的标量维度的总大小,而不是传输标量的个数,左边的是784 500,右边的是500 10,粗细就是784和500的差距 4 当张量的维度无法确 阅读全文
posted @ 2019-10-14 10:54 博博的Blog 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 讲解几个重点知识 1、对于tf.get_variable()中的reuse,意思是,如果有名字一模一样的变量,则对这个变量继续使用,如果没有名字一模一样的变量,则创建这个变量 2、options=run_options, run_metadata=run_metadata这玩意不好使 3、记住acc 阅读全文
posted @ 2019-10-14 09:15 博博的Blog 阅读(223) 评论(0) 推荐(0) 编辑
摘要: 先搞点基础的 注意注意注意,这里虽然很基础,但是代码应注意: 1、从writer开始后边就错开了 2、writer后可以直接接writer.close,也就是说可以: 对命名空间的操作 注意最后两个命名的方式 1、 tf.get_variable不受tf.name_scope的影响 2、倒数第二个的 阅读全文
posted @ 2019-10-13 21:59 博博的Blog 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 本节的循环神经网络一图足以说明 计算结果: 阅读全文
posted @ 2019-10-12 09:26 博博的Blog 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 本节是对上节的补充 运行结果是: 阅读全文
posted @ 2019-10-12 08:21 博博的Blog 阅读(131) 评论(0) 推荐(0) 编辑
摘要: 数据集的基本使用方法 先生成两个文件:file1,file2 再读取两个文件并放到一个dataset,然后输出(注意iterator。get_next()获得的是张量) TFRecoard读取: 结果为: 下面是用到placeholder的操作,因为是placeholder所以要initialize 阅读全文
posted @ 2019-10-11 21:52 博博的Blog 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 要点 1、`filename_queue = tf.train.string_input_producer(files, shuffle=False) `表示创建一个队列来维护列表 2、 queue runner线程要保证队列中至少剩下min_after_dequeue个数据。 如果min_afte 阅读全文
posted @ 2019-10-10 22:38 博博的Blog 阅读(137) 评论(0) 推荐(0) 编辑
摘要: ``` import tensorflow as tf files = tf.train.match_filenames_once("data.tfrecords-*") filename = tf.train.string_input_producer(files, shuffle=False, num_epochs=3) # 创建输入队列 reader = tf.TFRecordReader( 阅读全文
posted @ 2019-10-10 22:21 博博的Blog 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 以下代码要学会几个地方 1、 这个东西就是要会data.tfrecords %.5d of %.5d两个.5d, 2、记住这两个操作 与`writer = tf.python_io.TFRecordWriter(filename)` 3、得到的是以下TFrecoard两个文件 以下是对上面程序生成文 阅读全文
posted @ 2019-10-10 21:25 博博的Blog 阅读(182) 评论(0) 推荐(0) 编辑