Pytorch中的 model.train() 和 model.eval() 模式

model.train() :启用 BatchNormalization 和 Dropout

model.eval() :不启用 BatchNormalization 和 Dropout

 把模型model.eval()作用是为了固定BN和dropout层,使得偏置参数不随着发生变化。因为当batchsize小时,如果没有固定,会对图像的失真有很大的影响。

参考链接:https://pytorch.org/docs/stable/nn.html?highlight=module%20eval#torch.nn.Module.eval

posted on   cltt  阅读(400)  评论(0编辑  收藏  举报

编辑推荐:
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现
历史上的今天:
2018-08-21 ACM训练联盟周赛 K. Teemo's reunited
2018-08-21 ACM训练联盟周赛 Teemo's formula
2018-08-21 ACM训练联盟周赛 G. Teemo's convex polygon
2018-08-21 容斥定理
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示