随笔分类 -  tensorflow 学习笔记

tensorflow 版本 cuda cudnn 对应表格
摘要:具体内容可在https://developer.nvidia.com/downloads 下载 阅读全文

posted @ 2021-05-15 15:40 cltt 阅读(126) 评论(0) 推荐(0) 编辑

tensorflow 断点续训
摘要:all_model_checkpoint_paths失去断点之前的模型路径 checkpoint 断点续训,count改变可能只从当前模型开始保存,因此all_model_checkpoint_paths失去断点之前的模型路径参考链接:https://blog.csdn.net/changefore 阅读全文

posted @ 2021-04-19 10:37 cltt 阅读(94) 评论(0) 推荐(0) 编辑

tensorflow 和cuda对应关系
摘要:VersionPython versionCompilerBuild tools tensorflow-1.11.0 2.7, 3.3-3.6 GCC 4.8 Bazel 0.15.0 tensorflow-1.10.0 2.7, 3.3-3.6 GCC 4.8 Bazel 0.15.0 tenso 阅读全文

posted @ 2021-04-07 20:58 cltt 阅读(3929) 评论(0) 推荐(0) 编辑

tensor转化为ndarray
摘要:# -*- coding: utf-8 -*- import tensorflow as tf # 创建张量 t = tf.constant([1, 2, 3, 4], tf.float32) # 创建会话 session = tf.Session() # 张量转化为ndarray array = 阅读全文

posted @ 2021-04-07 20:49 cltt 阅读(994) 评论(0) 推荐(0) 编辑

tf 环境
摘要: 阅读全文

posted @ 2020-04-11 11:48 cltt 阅读(168) 评论(0) 推荐(0) 编辑

tf.reset_default_graph()
摘要:tf.reset_default_graph函数用于清除默认图形堆栈并重置全局默认图形。 注意:默认图形是当前线程的一个属性。该tf.reset_default_graph函数只适用于当前线程。当一个tf.Session或者tf.InteractiveSession激活时调用这个函数会导致未定义的行 阅读全文

posted @ 2020-03-26 10:45 cltt 阅读(1161) 评论(0) 推荐(0) 编辑

tensorflow中协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runners
摘要:前言 TensorFlow的Session对象是支持多线程的,可以在同一个会话(Session)中创建多个线程,并行执行。 在Session中的所有线程都必须能被同步终止,异常必须能被正确捕获并报告,会话终止的时候, 队列必须能被正确地关闭。 TensorFlow提供了两个类来实现对Session中 阅读全文

posted @ 2020-03-25 13:35 cltt 阅读(428) 评论(0) 推荐(0) 编辑

tf.train.Saver()模型保存与恢复
摘要:1.保存 将训练好的模型参数保存起来,以便以后进行验证或测试。tf里面提供模型保存的是tf.train.Saver()模块。 模型保存,先要创建一个Saver对象:如 saver=tf.train.Saver() 在创建这个Saver对象的时候,有一个参数经常会用到,max_to_keep 参数,这 阅读全文

posted @ 2020-03-24 20:19 cltt 阅读(805) 评论(0) 推荐(0) 编辑

tf.train.AdamOptimizer()函数解析
摘要:tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。 tf.train.AdamOptimizer.__init__( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon= 阅读全文

posted @ 2020-03-24 13:52 cltt 阅读(5119) 评论(0) 推荐(0) 编辑

tf.placeholder()函数
摘要:tf.placeholder()函数作为一种占位符用于定义过程,可以理解为形参,在执行的时候再赋具体的值。 tf.placeholder( dtype, shape=None, name=None ) 参数: dtype:数据类型。常用的是tf.float32,tf.float64等数值类型 sha 阅读全文

posted @ 2020-03-24 12:35 cltt 阅读(6413) 评论(0) 推荐(0) 编辑

tf.stack() /tf.unstack()
摘要:tf.stack函数 tf.stack( values, axis=0,(default) name='stack' ) 将 values 中的张量列表打包成一个张量,该张量比 values 中的每个张量都高一个秩,通过沿 axis 维度打包。给定一个形状为(A, B, C)的张量的长度 N 的列表 阅读全文

posted @ 2020-03-23 19:17 cltt 阅读(466) 评论(0) 推荐(0) 编辑

什么是tensor
摘要:1、概念: Tensorflow里最基本的数据结构就是Tensor。张量是多维数组的泛概念。张量概念包括标量、向量和线性算子。 “在同构的意义下,第零阶张量 (r = 0) 为标量 (Scalar),第一阶张量 (r = 1) 为向量 (Vector), 第二阶张量 (r = 2) 则成为矩阵 (M 阅读全文

posted @ 2020-03-23 19:01 cltt 阅读(1103) 评论(0) 推荐(0) 编辑

tf.size()函数
摘要:函数功能个:返回张量的大小.此函数返回一个表示input中的元素数的整数. 函数原型 size(input, name=None, out_type=tf.int32) import tensorflow as tf t = tf.constant([[[1, 1, 1], [2, 2, 2]], 阅读全文

posted @ 2020-03-23 14:31 cltt 阅读(630) 评论(0) 推荐(0) 编辑

tf.nn.l2_loss()的用法
摘要:l2_loss()这个函数的作用是利用L2范数来计算张量的误差值,但是没有开发并且只取L2范数的值的一半 函数: tf.nn.l2_loss( t, name=None ) 参数: t:一个张量(tensor),类型可以为:half, bfloat16, float32, float64 name: 阅读全文

posted @ 2020-03-23 14:29 cltt 阅读(994) 评论(0) 推荐(0) 编辑

tf.reverse()
摘要:一 函数原型tf.reverse( tensor, axis, name=None) 参数: tensor:需要进行反转的张量,类型必须为其中的一个uint8, int8, uint16, int16, int32, int64, bool, bfloat16, half, float32, flo 阅读全文

posted @ 2020-03-22 18:37 cltt 阅读(482) 评论(0) 推荐(0) 编辑

TFRecord文件
摘要:对于数据进行统一的管理是很有必要的.TFRecord就是对于输入数据做统一管理的格式.加上一些多线程的处理方式,使得在训练期间对于数据管理把控的效率和舒适度都好于暴力的方法.小的任务什么方法差别不大,但是对于大的任务,使用统一格式管理的好处就非常显著了.因此,TFRecord的使用方法很有必要熟悉. 阅读全文

posted @ 2020-03-21 13:46 cltt 阅读(262) 评论(0) 推荐(0) 编辑

TF flags的简介
摘要:1、flags可以帮助我们通过命令行来动态的更改代码中的参数。Tensorflow 使用flags定义命令行参数的方法。ML的模型中有大量需要tuning的超参数,所以此方法,迎合了需要一种灵活的方式对代码某些参数进行调整的需求 (1)、比如,在这个py文件中,首先定义了一些参数,然后将参数统一保存 阅读全文

posted @ 2020-03-21 13:16 cltt 阅读(838) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示