会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
知晓的老巢
唯有专注,才能保证对象的高内聚,年轻不狂妄自大,拼搏要有计划
博客园
首页
新随笔
联系
订阅
管理
2018年6月13日
神经网络学习总结第二天
摘要: 1、 最优化形象解读 2、 梯度下降 学习率: 3、 反向传播 4、 神经网络 Sigmoid激活函数(已经被ReLU激活函数替代) ReLU激活函数 最后通过代码比较下面的结果: (数据展示结果) 代码如下: import numpy as np import matplotlib.pyplot
阅读全文
posted @ 2018-06-13 20:12 知晓的老巢
阅读(588)
评论(1)
推荐(0)
编辑
公告