TensorFlow的基础结构
Tensorflow 是非常重视结构的, 我们得建立好了神经网络的结构, 才能将数字放进去, 运行这个结构.
这个例子简单的阐述了 tensorflow 当中如何用代码来运行我们搭建的结构.
创建数据
首先, 我们这次需要加载 tensorflow 和 numpy 两个模块, 并且使用 numpy 来创建我们的数据.
import tensorflow as tf import numpy as np # create data x_data = np.random.rand(100).astype(np.float32) y_data = x_data*0.1 + 0.3
计算误差,即损失值
接着就是计算 y
和 y_data
的误差:
loss = tf.reduce_mean(tf.square(y-y_data))
传播误差
反向传递误差的工作就教给optimizer
了, 我们使用的误差传递方法是梯度下降法: Gradient Descent
让后我们使用 optimizer
来进行参数的更新.
optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss)
训练
到目前为止, 我们只是建立了神经网络的结构, 还没有使用这个结构. 在使用这个结构之前, 我们必须先初始化所有之前定义的Variable
, 所以这一步是很重要的!
# init = tf.initialize_all_variables() # tf 马上就要废弃这种写法 init = tf.global_variables_initializer() # 替换成这样就好
接着,我们再创建会话Session
. 我们会在下一节中详细讲解 Session. 我们用Session
来执行init
初始化步骤. 并且, 用Session
来run
每一次 training 的数据. 逐步提升神经网络的预测准确性.
sess = tf.Session() sess.run(init) # Very important for step in range(201): sess.run(train) if step % 20 == 0: print(step, sess.run(Weights), sess.run(biases))
【小结】
对于Tensorflow的了解,我们将一起步步深入,逐步探索其中的奥妙之处...