欢迎

tf.train.AdamOptimizer()

tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。

tf.train.AdamOptimizer.__init__(
	learning_rate=0.001, 
	beta1=0.9, 
	beta2=0.999, 
	epsilon=1e-08, 
	use_locking=False, 
	name='Adam'
)

 参数:

    learning_rate:张量或浮点值。学习速率
    beta1:一个浮点值或一个常量浮点张量。一阶矩估计的指数衰减率
    beta2:一个浮点值或一个常量浮点张量。二阶矩估计的指数衰减率
    epsilon:数值稳定性的一个小常数
    use_locking:如果True,要使用lock进行更新操作
    name:应用梯度时为了创建操作的可选名称。默认为“Adam”

代码理解

实际上运行tf.train.AdamOptimizer(),除了利用反向传播算法对权重和偏置项进行修正外,也在运行中不断修正学习率。根据其损失量学习自适应,损失量大则学习率大,进行修正的角度越大,损失量小,修正的幅度也小,学习率就小,但是不会超过自己所设定的学习率。

lr = 0.1
step_rate = 1000
decay = 0.95

global_step = tf.Variable(0, trainable=False)
increment_global_step = tf.assign(global_step, global_step + 1)
learning_rate = tf.train.exponential_decay(lr, global_step, step_rate, decay, staircase=True)

optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate, epsilon=0.01)
trainer = optimizer.minimize(loss_function)

# Some code here

print('Learning rate: %f' % (sess.run(trainer ._lr)))

 


原文链接:https://blog.csdn.net/qq_39852676/article/details/98477214

posted @ 2022-11-03 15:42  bokeyuan-aa  阅读(123)  评论(0编辑  收藏  举报