05 2019 档案

两个经典问题
摘要:为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果? 为什么在RNN中,将tanh换成ReLU不能取得类似的效果? 链接 阅读全文

posted @ 2019-05-19 21:59 TMatrix52 阅读(82) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示