会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
GeekDengShuo
Don't be hasty,the algorithm of life also needs iteration
博客园
首页
新随笔
联系
订阅
管理
2018年9月16日
深度学习常见的优化方法(Optimizer)总结:Adam,SGD,Momentum,AdaGard等
摘要: 机器学习的常见优化方法在最近的学习中经常遇到,但是还是不够精通.将自己的学习记录下来,以备不时之需 基础知识: 机器学习几乎所有的算法都要利用损失函数 lossfunction 来检验算法模型的优劣,同时利用损失函数来提升算法模型. 这个提升的过程就叫做优化(Optimizer) 下面这个内容主要就
阅读全文
posted @ 2018-09-16 11:14 dengshuo7412
阅读(32870)
评论(1)
推荐(3)
编辑
公告