会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
LOADING . . .
qizhou
博客园
首页
新随笔
联系
管理
2020年8月4日
深度学习优化算法总结与实验
摘要: 深度学习优化算法最耳熟能详的就是GD(Gradient Descend)梯度下降,然后又有一个所谓的SGD(Stochastic Gradient Descend)随机梯度下降,其实还是梯度下降,只不过每次更新梯度不用整个训练集而是训练集中的随机样本。梯度下降的好处就是用到了当前迭代的一些性质,以至
阅读全文
posted @ 2020-08-04 18:51 颀周
阅读(1032)
评论(0)
推荐(3)
编辑
公告
很高兴能帮到你~
点赞