Pytorch中LayerNorm的使用
LayerNorm和BatchNorm相比,与一次传入网络的size大小无关,这一点与GroupNorm相似。
经过一番搜索以后,发现可能确实不适用于卷积神经网络中。
更直接的劝退原因是,最近不是很想学深度学习,只想毕业,所以三心二意之下搞不明白LayerNorm怎么使用。不是很能明白下图中的LayerNorm的参数,假设传入[3, 5, 5]的张量,设置为5可以,设置为[5, 5]也可以,不是特别能理解。而且我希望的是按照通道一层层的进行...不管了,大家都说不行肯定不行,就这样和老师汇报吧。