随笔分类 -  机器学习

摘要:激活函数:将神经网络上一层的输入,经过神经网络层的非线性变换转换后,通过激活函数,得到输出。常见的激活函数包括:sigmoid, tanh, relu等。https://blog.csdn.net/u013250416/article/details/80991831 为什么要引入非线性激活函数 如 阅读全文
posted @ 2018-12-06 16:06 zhaoyanhao 阅读(845) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示