pytorch normal_(), fill_()

比如有个张量a,那么a.normal_()就表示用标准正态分布填充a,是in_place操作,如下图所示:

比如有个张量b,那么b.fill_(0)就表示用0填充b,是in_place操作,如下图所示:

 

这两个函数常常用在神经网络模型参数的初始化中,例如

1
2
3
4
5
6
import torch.nn as nn
net = nn.Linear(16, 2)
for m in net.modules():
    if isinstance(m, nn.Linear):
        m.weight.data.normal_(mean=0, std=0.01)
        m.bias.data.fill_(0.0)

  

posted @   Picassooo  阅读(8739)  评论(0编辑  收藏  举报
编辑推荐:
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
阅读排行:
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示