Processing math: 100%

Neural Network

 

1, 神经元(Neuron)

   y=f(w1x1+w2x2+...+b)

     f is activation function

  • Sigmoid function (两端饱和的函数)

        Logistic function: σ(x)=11+exp(x)

        Tanh function:  tanh(x)=2σ(2x)1

  • ReLU (Rectified Linear Unit)

          计算简单

 

2, 网络分类

   前馈网络(DNN,CNN)

   记忆网络(RNN,玻尔兹曼机)

   图网络

 

posted @   stone-stone-stone  阅读(164)  评论(0编辑  收藏  举报
努力加载评论中...
点击右上角即可分享
微信分享提示