摘要:
网络结构,输入为2个数,先经过10个节点的全连接层,再经过10个节点的ReLu,再经过10个节点的全连接层,再经过1个节点的全连接层,最后输出。 coding:utf 8 import logging import math import random import mxnet as mx 导入 M 阅读全文
posted @ 2019-03-02 11:50
菜鸟小垃圾
阅读(707)
评论(0)
推荐(0)
摘要:
将分界复杂的曲线通过神经网络隐藏层的变换,转换成分界简单的。类似于SVM的核方法。 阅读全文
posted @ 2019-03-02 11:37
菜鸟小垃圾
阅读(265)
评论(0)
推荐(0)
摘要:
梯度消失 在反向传播过程中,中间层梯度在传播过程中的绝对值越来越小,使得训练的网络停滞不前。 例如用sigmoid或者tanh非线性,在输入的绝对值很大的时候,会出现“饱和”,即导数趋近于0,造成梯度消失。 ReLu非线性可避免这个情况,因为ReLu不会出现饱和,在激活后导数恒定为1。但在输入为负数 阅读全文
posted @ 2019-03-02 11:31
菜鸟小垃圾
阅读(559)
评论(0)
推荐(0)

浙公网安备 33010602011771号