Pytorch中LayerNorm的使用

  LayerNorm和BatchNorm相比,与一次传入网络的size大小无关,这一点与GroupNorm相似。

  

  

  经过一番搜索以后,发现可能确实不适用于卷积神经网络中。

  更直接的劝退原因是,最近不是很想学深度学习,只想毕业,所以三心二意之下搞不明白LayerNorm怎么使用。不是很能明白下图中的LayerNorm的参数,假设传入[3, 5, 5]的张量,设置为5可以,设置为[5, 5]也可以,不是特别能理解。而且我希望的是按照通道一层层的进行...不管了,大家都说不行肯定不行,就这样和老师汇报吧。

  

本文作者:小澳子

本文链接:https://www.cnblogs.com/xiaoaozi/p/17217493.html

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   小澳子  阅读(445)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
💬
评论
📌
收藏
💗
关注
👍
推荐
🚀
回顶
收起
🔑
  1. 1 404 not found REOL
404 not found - REOL
00:00 / 00:00
An audio error has occurred.