摘要: SGD > SGDM > NAG > AdaGrad > AdaDelta > RMSprop > Adam > AdaMax > Ndam > AMSGrad 优化算法的框架: 待优化参数:$w$,目标函数:$f(w)$,初始学习率$\alpha$ 每个epoch $t$: 计算目标函数关于当前参 阅读全文
posted @ 2019-08-01 16:35 nxf_rabbit75 阅读(474) 评论(0) 推荐(0) 编辑
摘要: tf.nn.embedding_lookup( params, ids, partition_strategy='mod', name=None, validate_indices=True, max_norm=None ) 功能:选取一个张量里面索引对应的行的向量 TensorFlow链接:htt 阅读全文
posted @ 2019-08-01 14:48 nxf_rabbit75 阅读(567) 评论(0) 推荐(0) 编辑