1.saver.save()
为模型添加保存模型/检查点。
(1)参数说明
sess: 会话对象
model_path: 模型保存的路径
global_step=epoch: 可选,在文件名中加上迭代次数,以区分保存的文件是经过多少次的训练迭代。
write_meta_graph: 可选,False: 只保存一次.meta文件;True:根据我们设置的保存次 数,保存多次.meta文件。这里对这个参数加一点说明:因为模型一旦建立好之后,计算图的结构就确定了,所以每次保存的.meta文件都是一样的,有时为了节省存储空间,我们选择只保存一次.meta文件。
(2)使用举例
#创建saver
saver = tf.train.Saver(max_to_keep=1) # max_to_keep,保存模型/检查点文件的个数,默认为5
#在保存时使用了如下代码,传入了迭代次数。
saver.save(sess, savedir+"linermodel.cpkt", global_step=epoch)
#TensorFlow 会将迭代次数一起放在检查点的名字上,所以在载入时,同样也要指定迭代次数。
saver.restore(sess2, savedir+"linermodel.cpkt-" + str(load_epoch))
2.tf.random_normal()
产生shape型的矩阵,数值取在[-1,1]之间的随机数,默认满足标准正态N(0,1)。
(1)参数说明
shape:产生矩阵的型
(2)使用举例
tf.random_normal([3, 2]) # 形状为[3,2],在[-1,1]之间的随机数,默认满足标准正态N(0,1)。
W = tf.Variable(tf.random_normal([1]), name="weight") # 形状为[1],1x1矩阵就是一个数
参考:https://blog.csdn.net/dcrmg/article/details/79028043/
3.tf.reduce_mean(arg1,arg2)
arg1是矩阵数据;
当arg2 = 0时,纵向压缩矩阵求mean;
当arg2 = 1时,横向压缩矩阵求mean;
当省略arg2时,默认对矩阵所有元素进行求mean,得到一个数。
cost = tf.reduce_mean(tf.square(Y - z)) # 对所有元素求mean,平均值
5.
参考:
https://blog.csdn.net/Liven_Zhu/article/details/80595308
作者:西伯尔
出处:http://www.cnblogs.com/sybil-hxl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。