1.用图(graph)来表示计算任务
2.用op(opreation)来表示图中的计算节点,图有默认的计算节点,构建图的过程就是在其基础上加节点。
3.用tensor表示每个op的输入输出数据,可以使用feed,fetch可以为任意操作设置输入和获取输出。
4.通过Variable来维护状态。
5.整个计算任务放入session的上下文来执行。
tensorflow把复杂的计算放在python之外进行。
为什么tensorflow使用session来运行会话?
因为python会使用一些非python实现的库比如numpy,如果每个操作和数据都做内外交换代价太大,
所以把所有操作描述为图,把整个操作图打包放入session,作为一个整体做内外交换,这样就能避免频繁的内外交换带来的性能损失。
一般步骤
#导入库
import tensorflow as tf
import numpy as np
# 通过操作符号变量来描述这些可交互的操作单元
x = tf.placeholder("float", [None, 784]) # 这里的 None 表示此张量的第一个维度可以是任何长度的
#定义变量
# 一个 Variable 代表一个可修改的张量,存在在TensorFlow的用于描述
#交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。对于各种机器学习应用,一般都会有模
#交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。对于各种机器学习应用,一般都会有模
#型参数,可以用 Variable 表示
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
#实现模型
y = tf.nn.softmax(tf.matmul(x,W) + b)
#定义指标评估模型的好坏
#我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss),然后尽量最小化这个指标
y_ = tf.placeholder("float", [None,10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
#使用梯度下降算法来修改变量减小成本
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
#初始化
init = tf.initialize_all_variables()
#启动模型
sess = tf.Session()
sess.run(init)
#训练模型
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
#评估模型
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})
1.exp函数,自然对数e( 2.71828)的指数函数
2.normalize函数,归一化函数,把数据范围限制在你需要的范围(范围缩放)。
3.交叉熵
4.导数,导函数,切线,斜率,方差代价函数