摘要: 原文: http://blog.csdn.net/sinat_30071459/article/details/50721565 深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别: (1)batchsize:批大小。在深度学习中,一般采用SGD 阅读全文
posted @ 2016-11-12 17:24 小猪童鞋 阅读(2649) 评论(0) 推荐(0) 编辑
摘要: (1)对于深度神经网络,中间的隐层的输出必须有一个激活函数。否则多个隐层的作用和没有隐层相同。这个激活函数不一定是sigmoid,常见的有sigmoid、tanh、relu等。 (2)对于二分类问题,输出层是sigmoid函数。这是因为sigmoid函数可以把实数域光滑的映射到[0,1]空间。函数值 阅读全文
posted @ 2016-11-12 17:17 小猪童鞋 阅读(10397) 评论(0) 推荐(0) 编辑