Pytorch中LayerNorm的使用

  LayerNorm和BatchNorm相比,与一次传入网络的size大小无关,这一点与GroupNorm相似。

  

  

  经过一番搜索以后,发现可能确实不适用于卷积神经网络中。

  更直接的劝退原因是,最近不是很想学深度学习,只想毕业,所以三心二意之下搞不明白LayerNorm怎么使用。不是很能明白下图中的LayerNorm的参数,假设传入[3, 5, 5]的张量,设置为5可以,设置为[5, 5]也可以,不是特别能理解。而且我希望的是按照通道一层层的进行...不管了,大家都说不行肯定不行,就这样和老师汇报吧。

  

posted @ 2023-03-15 10:48  小澳子  阅读(419)  评论(0编辑  收藏  举报