摘要:
BP 神经网络的简单实现 常用层 常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等 Dense层 Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素 阅读全文
posted @ 2017-08-24 18:35 AYE89 阅读(4687) 评论(1) 推荐(0) 编辑
|
||
摘要:
BP 神经网络的简单实现 常用层 常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等 Dense层 Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素 阅读全文
posted @ 2017-08-24 18:35 AYE89 阅读(4687) 评论(1) 推荐(0) 编辑
摘要:
参考《Keras中文文档》http://keras-cn.readthedocs.io/en/latest/ 相关概念:神经网络优化器(优化策略)、梯度下降、随机梯度下降、小批的梯度下降(mini-batch gradient decent)、batch_size batch 这个概念与Keras无 阅读全文
posted @ 2017-08-24 16:43 AYE89 阅读(2179) 评论(0) 推荐(0) 编辑 |
||