Feedforward Networks Training Speed Enhancement by Optimal Initialization of the Synaptic Coefficients

Yam J. Y. F. and Chow T. W. S. Feedforward networks training speed enhancement by optimal initialization of the synaptic coefficients.

here 超级像的一个工作, 都希望让输出的区域落在激活函数的非饱和区域.

主要内容

先考虑单层:

h(x)=i=1Nwixi+w0.

假设该结点所使用的激活函数为

σ(z)=11+exp(z)(0,1),

定义其非饱和区域为(此区域内关于z的导数大于最大导数的1/20):

z[4.36,4.36].

在输入空间中, 定义超平面

P(a)=i=1Hwixi+w0a,

则非饱和区域以P(4.36),P(4.36)为边界. 该区域的宽度为

d=8.72i=1Nwi2.

又该结点的定义域为:

xi[ximin,ximax],

可知定义域的'宽度'(实际上是对角边)为:

D=i=1N[ximaxximin]2.

显然, 希望有

dD

成立, 文中更精确地让 d=D, 即

i=1Nwi2=8.72D.

我们希望让 wi 采样自

wiU[wmax,wmax],

Ei=1Nwi2=Nwmax23.

故不妨令

8.72D=Nwmax23,

wmax=8.72D3N.

最后, 对于偏置w0, 我们希望两个区域的中心是一致的. 其中定义域的中心为:

C=(x1min+x1max2,x2min+x2max2,,xNmin+xNmax2)T.

故需要满足:

w0+i=1NwiCi=0w0=i=1NwiCi.

当再往下考虑的时候, 因为激活函数的值域为(0,1), 所以下一层权重的初始化为:

D=H,vmax=15.1H,v0=i=1N0.5vi.

代码


import torch.nn as nn
import torch.nn.functional as F

import math


def active_init(weight, bias, low: float = 0., high: float = 1.):
    assert high > low, "high should be greater than low"
    out_channels, in_channels = weight.size()
    D = math.sqrt(in_channels * (high - low))
    w = 8.72 * math.sqrt(3 / in_channels) / D
    nn.init.uniform_(weight, -w, w)
    C = -torch.ones(in_channels) * ((high - low) / 2)
    nn.init.constant_(bias, weight.data[0] @ C)


posted @   馒头and花卷  阅读(27)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2021-04-03 Direct and Indirect Effects
点击右上角即可分享
微信分享提示