摘要:
#创建一个计算流图 #大多数tensorflow程序开始于dataflow graph 的构造函数 #在这个命令中你执行了tensorflow api的函数 #创建了新的操作tf.Operation (node) #和tf.Tensor (edge) 对象,并且将它们添加到了tf.Graph的实例中 #TensorFlow提供了默认的数据流图,是一个非显式声明的参数 #tf.constant(4... 阅读全文
摘要:
import tensorflow as tf # 在不同的变量域中调用conv_relu,并且声明我们想创建新的变量 def my_image_filter(input_images): with tf.variable_scope("conv1"): # Variables created here will be named "conv1/weights" ,"co... 阅读全文
摘要:
#Dataflow是并行化编程常用的方式 #当使用TensorFlow执行你的程序的时候有以下几个优点 #1、并行化 。通过声明的边来代表操作之间的依赖 # 对系统来说确定可以并行化的操作是比较容易的 #2、分布式执行: # 通过使用声明的边来代表操作之间值的传递 # 这样使得tensorflow在跨多平台之间执行你的程序, # TensorFlow在不同的设备之... 阅读全文
摘要:
# sharing variables # Tensorflow supports two ways of sharing variables # 1、Explicitly passing tf.Variable objects around # 2、Implicitly wrapping tf.Variable objects within tf.variable_scope objects ... 阅读全文
摘要:
下面是上面输出的结果 阅读全文
摘要:
下面是输出的结果 阅读全文
摘要:
# creates a variable named v and places it on the second GPU device import tensorflow as tf #with tf.device("/device:GPU:1"): # v = tf.get_variable("v", [1]) #it is particularly important for var... 阅读全文
摘要:
#一个tensorflow程序断开的部分可能要创建变量 # 如果有一种方法来访问所有的变量是非常有用的 #因为这个原因TensorFlow提供了集合,是一些张量的集合 #或者是其他的对象,就像tf.Variable 实例一样 # 默认情况下 tf.Variable 对象被放置在下面的两个集合中 # tf.GraphKeys.GLOBAL_VARIABLES #变量可以在多个设备之间被分享 # t... 阅读全文
摘要:
下面是上面代码的输出值: 阅读全文