会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
交大机器学习讨论小组
2016年10月19日
Batch Gradient Descendent (BGD) & Stochastic Gradient Descendent (SGD)
摘要: SGD, BGD初步描述 (原文来自:http://blog.csdn.net/lilyth_lilyth/article/details/8973972,@熊均达@SJTU 做出解释及说明) 梯度下降(GD)是最小化风险函数、损失函数(注意Risk Function和Cost Function在本文中其实指的一个意思,在不同应用领域里面可能叫法会有所不同。解释:@熊...
阅读全文
posted @ 2016-10-19 01:16 kaixiao
阅读(241)
评论(1)
推荐(1)
编辑
导航
博客园
首页
新随笔
联系
订阅
管理
公告