会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Python少年
联系
管理
订阅
2018年9月17日
Mini-Batch 、Momentum、Adam算法的实现
摘要: Mini-Batch 1. 把训练集打乱,但是X和Y依旧是一一对应的 2.创建迷你分支数据集 Momentum 1初始化 2动量更新参数 Adam Adam算法是训练神经网络中最有效的算法之一,它是RMSProp算法与Momentum算法的结合体。 1.初始化参数 2.Adam算法实现 def up
阅读全文
posted @ 2018-09-17 11:17 Python少年
阅读(6657)
评论(0)
推荐(0)
编辑