2018年6月6日

基础 | batchnorm原理及代码详解

摘要: https://blog.csdn.net/qq_25737169/article/details/79048516 https://www.cnblogs.com/bonelee/p/8528722.html Notes on Batch Normalization Notes on Batch 阅读全文

posted @ 2018-06-06 16:36 Maddock 阅读(1846) 评论(0) 推荐(0) 编辑

交叉熵代价函数原理

摘要: https://blog.csdn.net/u014595019/article/details/52562159 交叉熵代价函数(作用及公式推导) 2016年04月02日 18:22:52 __鸿 阅读数:65686更多 所属专栏: Machine Learing https://blog.csd 阅读全文

posted @ 2018-06-06 15:50 Maddock 阅读(236) 评论(0) 推荐(0) 编辑

深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)

摘要: 深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记:优化方法总结 深度学习笔记(四):循环神经网 阅读全文

posted @ 2018-06-06 15:36 Maddock 阅读(287) 评论(0) 推荐(0) 编辑

机器学习 logistic分类

摘要: https://blog.csdn.net/u014595019/article/details/52554582 阅读全文

posted @ 2018-06-06 14:42 Maddock 阅读(146) 评论(0) 推荐(0) 编辑

导航