两个经典问题

  • 为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果?
  • 为什么在RNN中,将tanh换成ReLU不能取得类似的效果?

 

链接

posted on 2019-05-19 21:59  TMatrix52  阅读(79)  评论(0编辑  收藏  举报

导航