会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
未雨愁眸
tensorflow群469331966
博客园
::
首页
::
新随笔
::
联系
::
订阅
::
管理
随笔 - 4326, 文章 - 1, 评论 - 32, 阅读 -
281万
公告
昵称:
未雨愁眸
园龄:
11年
粉丝:
94
关注:
0
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
TensorFlow 学习(八)—— 梯度计算(gradient computation)
maxpooling 的 max 函数关于某变量的偏导也是分段的,关于它就是 1,不关于它就是 0;
BP 是反向传播求关于参数的偏导,SGD 则是梯度更新,是优化算法;
1. 一个实例
relu
=
tf.nn.relu
(
tf.matmul
(
x
,
W
)
+
b
)
C
=
[
...
]
[
db
,
dW
,
dx
]
=
tf.gradient
(
C
,
[
b
,
w
,
x
]
)
posted on
2017-03-16 11:29
未雨愁眸
阅读(
1180
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部
登录后才能查看或发表评论,立即
登录
或者
逛逛
博客园首页
点击右上角即可分享
AI原生IDE