AYE89

coding & learning

导航

2017年8月24日

摘要: BP 神经网络的简单实现 常用层 常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等 Dense层 Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素 阅读全文

posted @ 2017-08-24 18:35 AYE89 阅读(4675) 评论(1) 推荐(0) 编辑

摘要: 参考《Keras中文文档》http://keras-cn.readthedocs.io/en/latest/ 相关概念:神经网络优化器(优化策略)、梯度下降、随机梯度下降、小批的梯度下降(mini-batch gradient decent)、batch_size batch 这个概念与Keras无 阅读全文

posted @ 2017-08-24 16:43 AYE89 阅读(2173) 评论(0) 推荐(0) 编辑

摘要: 参考:Python3.6.2文档 Source code: Lib/concurrent/futures/thread.py and Lib/concurrent/futures/process.py Executor对象 class concurrent.futures.Executor 方法: 阅读全文

posted @ 2017-08-24 15:37 AYE89 阅读(345) 评论(0) 推荐(0) 编辑