摘要: ReLU激活函数 从趋近于零开始,然后变成一条直线。(Rectified Linear Unit)(修正线性单元) 在神经网络中,你决定在这个结点中想要得到什么,然后用所有的四个输入来计算想得到的。输入层和中间层紧密连接。 神经网络给与了足够多的关于x和y的数据,给与了足够多的训练样本有关x和y。神 阅读全文
posted @ 2021-09-29 21:39 hotboxx 阅读(162) 评论(0) 推荐(0) 编辑