tensorflow variable scope 变量命名空间和变量共享

import tensorflow as tf

def f():
    var = tf.Variable(initial_value=tf.random_normal(shape=[2]))
    return var

a1=f()
a2=f()
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(a1))
    print(sess.run(a2))

输出为:
[-0.74532765 -1.91889453]
[ 0.35587442 0.8001433 ]
可以看到两次调用实际上是生成了两组变量。
在需要共享之前变量的时候可以使用get_variable()和 variable_scope() 来管理变量名和作用域。

def f1():
    var = tf.get_variable(name="var_name",shape=[2],initializer=tf.random_normal_initializer())
    return var

a1=f1()
a2=f1()
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(a1))
    print(sess.run(a2))
    #ValueError: Variable var_name already exists, disallowed.

运行上面代码会抛出ValueError: Variable var_name already exists错误,这是因为get_variable()会检查是否有其他变量使用这个全称.在这里a1赋值的时候var_name已经被使用了。
使用variable_scope()可以解决这个问题:
方法1:

with tf.variable_scope('f_scope') as scope:
    a1=f1()
    scope.reuse_variables()
    a2=f1()
    
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(a1))
    print(sess.run(a2))

方法2:

with tf.variable_scope("f_scope1") :
    a1=f1()
with tf.variable_scope("f_scope1", reuse = True):
    a2=f1()
    
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(a1))
    print(sess.run(a2))

输出为:
[ 1.16212559 -0.6709134 ]
[ 1.16212559 -0.6709134 ]
可以看到两次调用使用同样的变量

要注意的是:variable_scope()的reuse 参数是不可继承。当打开一个重用变量作用域,那么所有的子作用域也将会被重用。

posted @ 2017-04-21 17:07  机器狗mo  阅读(489)  评论(0编辑  收藏  举报