tensorflow学习笔记1

1.os.environ["CUDA_VISIBLE_DEVICES"]

 os.environ[“CUDA_DEVICE_ORDER”] = “PCI_BUS_ID” # 按照PCI_BUS_ID顺序从0开始排列GPU设备
 os.environ[“CUDA_VISIBLE_DEVICES”] = “0” #设置当前使用的GPU设备仅为0号设备  设备名称为'/gpu:0'
 os.environ[“CUDA_VISIBLE_DEVICES”] = “1” #设置当前使用的GPU设备仅为1号设备  设备名称为'/gpu:0'
 os.environ[“CUDA_VISIBLE_DEVICES”] = “0,1” #设置当前使用的GPU设备为0,1号两个设备,名称依次为'/gpu:0'、'/gpu:1'
 os.environ[“CUDA_VISIBLE_DEVICES”] = “1,0” #设置当前使用的GPU设备为1,0号两个设备,名称依次为'/gpu:0'、'/gpu:1'。表示优先使用1号设备,然后使用0号设备

 

2.tf.constant()

函数参数tf.constant(value,dtype=None, shape=None, name='Const', verify_shape=False)  第一个值value是必须的,可以是一个数值,也可以是一个列表

 

3.sess.run()

输出变量的值

 

4.tf.placeholder()

tf.placeholder( dtype,  shape=None,  name=None )  

dtype:数据类型。常用的是tf.float32,tf.float64等数值类型

shape:数据形状。默认是None,就是一维值,也可以是多维(比如[2,3], [None, 3]表示列是3,行不定)

name:名称

 

5.tf.add()

tf.add(x,y,name=None)  参数相加

 

6.tf.multiply()

tf.multiply(x,y,name=None)

乘法,相同位置的元素相乘

x,y要有相同的数据类型

`half`, `float32`, `float64`, `uint8`, `int8`, `uint16`, `int16`, `int32`, `int64`, `complex64`, `complex128`.

 

7.sess.run(add,feed_dict={a:2,b:3})

run(fetches,feed_dict=None,options=None, run_metadata=None)

fetches:单个图元素,图元素列表或字典,字典元素其值是图元素或图元素列表。
feed_dict:将图元素映射到值的字典。

如果fetches是单个图元素则返回单个值,如果fetches是列表则返回值列表,如果fetches是字典则返回具有相同键的字典
 
8.tf.matmul()

tf.matmul()将矩阵a乘以矩阵b,生成a * b。

tf.matmul(a, b, transpose_a=False, transpose_b=False, adjoint_a=False, adjoint_b=False, a_is_sparse=False, b_is_sparse=False, name=None) 
参数: 
a: 一个类型为 float16, float32, float64, int32, complex64, complex128 且张量秩 > 1 的张量。 
b: 一个类型跟张量a相同的张量。 
transpose_a: 如果为真, a则在进行乘法计算前进行转置。 
transpose_b: 如果为真, b则在进行乘法计算前进行转置。 
adjoint_a: 如果为真, a则在进行乘法计算前进行共轭和转置。 
adjoint_b: 如果为真, b则在进行乘法计算前进行共轭和转置。 
a_is_sparse: 如果为真, a会被处理为稀疏矩阵。 
b_is_sparse: 如果为真, b会被处理为稀疏矩阵。 
name: 操作的名字(可选参数) 
返回值: 一个跟张量a和张量b类型一样的张量且最内部矩阵是a和b中的相应矩阵的乘积。 
注意: 
(1)输入必须是矩阵(或者是张量秩 >2的张量,表示成批的矩阵),并且其在转置之后有相匹配的矩阵尺寸。 
(2)两个矩阵必须都是同样的类型,支持的类型如下:float16, float32, float64, int32, complex64, complex128。 

 
 

 

 

 

 

 

 

 

 


posted @ 2020-04-01 12:28  生活依旧  阅读(140)  评论(0编辑  收藏  举报