会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
小金乌会发光-Z&M
欲无杂草,先种庄稼,用心呵护好自己那一亩三分地!
首页
新随笔
联系
订阅
管理
2019年8月26日
深度学习优化算法总结
摘要: 前言 本文讨论的优化问题指的是,给定目标函数f(x),我们需要找到一组参数x(权重),使得f(x)的值最小。 以下内容假设读者已经了解机器学习基本知识,和梯度下降的原理。 SGD SGD指stochastic gradient descent,即随机梯度下降。是梯度下降的batch版本。 对于训练数
阅读全文
posted @ 2019-08-26 16:35 小金乌会发光-Z&M
阅读(467)
评论(0)
推荐(0)
编辑
公告