06 2019 档案

摘要:本文简单介绍了 Adam 优化器,并讨论一个问题:Adam 这个自适应学习率的优化器还有必要使用学习率衰减(learning rate decay)吗? 阅读全文
posted @ 2019-06-28 17:06 wuliytTaotao 阅读(77406) 评论(3) 推荐(10) 编辑
摘要:梯度下降法、最速下降法、牛顿法等迭代求解方法,都是在无约束的条件下使用的,而在有约束的问题中,直接使用这些梯度方法会有问题,如更新后的值不满足约束条件。如何处理有约束的优化问题?大致可以分为以下两种方式: 1. 将有约束的问题转化为无约束的问题,如拉格朗日乘子法和KKT条件; 2. 对无约束问题下的求解算法进行修改,使其能够运用在有约束的问题中,如对梯度下降法进行投影,使得更新后的值都满足约束条件。 阅读全文
posted @ 2019-06-24 20:14 wuliytTaotao 阅读(14355) 评论(3) 推荐(1) 编辑
摘要:tf.keras 使用 tensorflow 中定义的 optimizer,同时如果使用 ReduceLROnPlateau() callbacks,会出现错误 AttributeError: 'TFOptimizer' object has no attribute 'lr',通过 TFOptimizer 对 optimizer 进行一层包装即可解决这个问题。 阅读全文
posted @ 2019-06-06 22:00 wuliytTaotao 阅读(15038) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示