Pytorch中LayerNorm的使用
LayerNorm和BatchNorm相比,与一次传入网络的size大小无关,这一点与GroupNorm相似。
经过一番搜索以后,发现可能确实不适用于卷积神经网络中。
更直接的劝退原因是,最近不是很想学深度学习,只想毕业,所以三心二意之下搞不明白LayerNorm怎么使用。不是很能明白下图中的LayerNorm的参数,假设传入[3, 5, 5]的张量,设置为5可以,设置为[5, 5]也可以,不是特别能理解。而且我希望的是按照通道一层层的进行...不管了,大家都说不行肯定不行,就这样和老师汇报吧。
本文作者:小澳子
本文链接:https://www.cnblogs.com/xiaoaozi/p/17217493.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步