摘要: 网络结构,输入为2个数,先经过10个节点的全连接层,再经过10个节点的ReLu,再经过10个节点的全连接层,再经过1个节点的全连接层,最后输出。 coding:utf 8 import logging import math import random import mxnet as mx 导入 M 阅读全文
posted @ 2019-03-02 11:50 菜鸟小垃圾 阅读(707) 评论(0) 推荐(0)
摘要: 将分界复杂的曲线通过神经网络隐藏层的变换,转换成分界简单的。类似于SVM的核方法。 阅读全文
posted @ 2019-03-02 11:37 菜鸟小垃圾 阅读(265) 评论(0) 推荐(0)
摘要: 梯度消失 在反向传播过程中,中间层梯度在传播过程中的绝对值越来越小,使得训练的网络停滞不前。 例如用sigmoid或者tanh非线性,在输入的绝对值很大的时候,会出现“饱和”,即导数趋近于0,造成梯度消失。 ReLu非线性可避免这个情况,因为ReLu不会出现饱和,在激活后导数恒定为1。但在输入为负数 阅读全文
posted @ 2019-03-02 11:31 菜鸟小垃圾 阅读(559) 评论(0) 推荐(0)