会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
张喆坤
https://gitee.com/zhangzhekun/Showmethecode
博客园
首页
新随笔
联系
订阅
管理
tensorflow06-反向传播
逐层 从后往前 一个一个求偏导
权重函数 w
input [1][3]* w[3][4]= layer1[1][4]
神经元个数越多越好
一般用relu 应为sigmoid会梯度消失 w权重函数变成0
实际值-均值
参数初始化 对于w矩阵设置一个随机值(让权重参数稳定一些)
DROP-OUT 防止过拟合(梯度下降 偏导)
每次训练随机选择 每一层的一部分节点
posted @
2023-04-22 16:13
张喆坤
阅读(
10
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部