TensorFlow基本语法

梯度带tf.GradientTape(自动求梯度)
Tensorflow 会把 'tf.GradientTape' 上下文中执行的所有操作都记录在一个磁带上 ("tape")。 然后基于这个磁带和每次操作产生的导数,用反向微分法("reverse mode differentiation")来计算这些被“记录在案”的函数的导数。

init(persistent=False,watch_accessed_variables=True)
作用:创建一个新的GradientTape
参数:
persistent: 布尔值,用来指定新创建的gradient tape是否是可持续性的。默认是False,意味着只能够调用一次gradient()函数。
watch_accessed_variables: 布尔值,表明这个gradien tap是不是会自动追踪任何能被训练(trainable)的变量。默认是True。要是为False的话,意味着你需要手动去指定你想追踪的那些变量。
比如在上面的例子里面,新创建的gradient tape设定persistent为True,便可以在这个上面反复调用gradient()函数。

watch(tensor)
作用:确保某个tensor被tape追踪

数学运算
四则运算:tf.add,tf.subtract,tf.multiply,tf.divide
平方,次方,开方:tf.square,tf.pow(张量名,n次方数),tf.sqrt
矩阵乘:tf.matmul


posted @ 2020-12-23 16:35  吴莫愁258  阅读(163)  评论(0编辑  收藏  举报