摘要: 4.3核对矩阵维数 根据前向的矩阵,可以计算出右上的规律,对于第L层的w来说,其维数为(n[L],n[L-1]),n[L]表示第L层的单元数。 4.4为什么深层神经网络会好用? 如果要做一个人脸识别的系统:那么浅层的神经网络,进行特征识别或边缘探测,第一张图中的一个小方块就是一个神经单元?无法理解。 阅读全文
posted @ 2019-02-26 19:20 lypbendlf 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 转自:https://blog.csdn.net/cqk0100/article/details/76221749 1.总结 对于array对象,*和np.multiply函数代表的是数量积,如果希望使用矩阵的乘法规则,则应该调用np.dot和np.matmul函数。 对于matrix对象,*直接代 阅读全文
posted @ 2019-02-26 11:37 lypbendlf 阅读(472) 评论(0) 推荐(0) 编辑
摘要: 转自:为什么w不能初始化为0,而是要随机初始化?https://zhuanlan.zhihu.com/p/27190255 通俗理解BP.https://zhuanlan.zhihu.com/p/24801814 很容易就看明白!学习了! 阅读全文
posted @ 2019-02-26 08:52 lypbendlf 阅读(190) 评论(0) 推荐(0) 编辑