0607-参数初始化策略

0607-参数初始化策略

pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html

一、参数初始化策略概述

深度学习中,一个好的参数初始化策略可以让模型更快地收敛,而一个差的参数初始化策略可能会让模型很难进行收敛,反复震荡甚至崩溃。

nn.Module 中的参数一般都采取了比较合适的初始化策略,因此一般我们不需要考虑。不过我们也可以自定义一个参数初始化策略代替系统默认的,比如当我们使用 Parameter 时,由于 t.Tensor() 返回的是内存中的随机数,很可能会有极大值,这会时训练网络时造成溢出或者梯度小时,因此此时自定义一个参数的初始化策略尤为重要。

torch 中的 nn.init 模块专门为初始化设计,实现了一些常用的初始化侧路了,而且就算如果某种初始化策略 nn.init 不提供,用户也可以自己直接初始化。

二、利用 nn.init 初始化

Glorot 正态分布初始化方法,也称作 Xavier 正态分布初始化,参数由 0 均值,标准差为 \(\sqrt{\frac{2}{(fan_{in} + fan_{out}})}\) 的正态分布产生,其中\(fan_{in}\)\(fan_{out}\) 是分别权值张量的输入和输出元素数目。这种初始化同样是为了保证输入输出的方差不变,但是原论文中 [1] 是基于线性函数推导的,同时在 tanh 激活函数上有很好的效果,但不适用于ReLU激活函数。

\[std=gain×\sqrt{\frac{2}{fan_{in}+fan_{out}}} \]

看不懂就别看了,我都没仔细看,百度 copy 来的。

参考:[1] Understanding the difficulty of training deep feedforward neural networks — Glorot, X. & Bengio, Y. (2010)

import torch as t
from torch import nn
from torch.nn import init
linear = nn.Linear(3, 4)

t.manual_seed(1)
# 等价于 linear.weight.data.normal_(0, std)
init.xavier_normal_(linear.weight)  #
Parameter containing:
tensor([[ 0.3535,  0.1427,  0.0330],
        [ 0.3321, -0.2416, -0.0888],
        [-0.8140,  0.2040, -0.5493],
        [-0.3010, -0.4769, -0.0311]], requires_grad=True)

三、直接初始化

import math
t.manual_seed(1)

# xavier初始化的计算公式
std = math.sqrt(2) / math.sqrt(7.)
linear.weight.data.normal_(0, std)
tensor([[ 0.3535,  0.1427,  0.0330],
        [ 0.3321, -0.2416, -0.0888],
        [-0.8140,  0.2040, -0.5493],
        [-0.3010, -0.4769, -0.0311]])
# 对模型的所有参数进行初始化
for name, params in net.named_parameters():
    if name.find('linear') != -1:  # 对所有全连接层的参数进行初始化
        # init linear
        params[0]  # weight
        params[1]  # bias
    elif name.find('conv') != -1:
        pass
    elif name.find('norm') != -1:
        pass
---------------------------------------------------------------------------

NameError                                 Traceback (most recent call last)

<ipython-input-3-78d2673ab1d6> in <module>
      1 # 对模型的所有参数进行初始化
----> 2 for name, params in net.named_parameters():
      3     if name.find('linear') != -1:  # 对所有全连接层的参数进行初始化
      4         # init linear
      5         params[0]  # weight


NameError: name 'net' is not defined
posted @ 2021-04-25 20:13  B站-水论文的程序猿  阅读(817)  评论(0编辑  收藏  举报