摘要: 优化器 目前优化器主要分为两个方向: 1. The accelerated SGD: SGD momemtum 2. The adaptive learning rate methods: Adam SGDM:收敛慢,更好的精度,比较稳定,train和val的差距比较小 Adam:收敛快,可能不收敛 阅读全文
posted @ 2020-06-08 22:19 YeZzz 阅读(886) 评论(0) 推荐(0) 编辑