摘要: 参考:https://blog.csdn.net/u013733326/article/details/79639509 希望大家直接到上面的网址去查看代码,下面是本人的笔记 搭建一个能够 “识别猫”的简单神经网络——实现logistic回归,即单层神经网络 1.首先下载数据 总代码lr_utils 阅读全文
posted @ 2019-04-01 16:57 慢行厚积 阅读(564) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79702148 希望大家直接到上面的网址去查看代码,下面是本人的笔记 建立一个带有隐藏层的神经网络 导入一些软件包numpy:是用Python进行科学计算的基本软件包。sklearn:为数据挖掘 阅读全文
posted @ 2019-04-01 16:56 慢行厚积 阅读(1757) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 两层神经网络,和吴恩达课后作业学习1-week3-homework-one-hidden-layer——不发布不同之处在于使 阅读全文
posted @ 2019-04-01 16:55 慢行厚积 阅读(509) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79767169 希望大家直接到上面的网址去查看代码,下面是本人的笔记 实现多层神经网络 1.准备软件包 为了和作者的数据匹配,需要指定随机种子 2.初始化参数 测试两层时: 返回: 测试三层时: 阅读全文
posted @ 2019-04-01 16:55 慢行厚积 阅读(486) 评论(1) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 5.梯度校验 在我们执行反向传播的计算过程中,反向传播函数的计算过程是比较复杂的。为了验证我们得到的反向传播函数是否正确,现 阅读全文
posted @ 2019-04-01 16:54 慢行厚积 阅读(826) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 初始化、正则化、梯度校验 1. 初始化参数: 1.1:使用0来初始化参数。 1.2:使用随机数来初始化参数。 1.3:使用抑 阅读全文
posted @ 2019-04-01 16:54 慢行厚积 阅读(865) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79847918 希望大家直接到上面的网址去查看代码,下面是本人的笔记 4.正则化 1)加载数据 仍是问题: 解决——直接导入函数: 加载数据: 图示: 每一个点代表球落下的可能的位置,蓝色代表我 阅读全文
posted @ 2019-04-01 16:54 慢行厚积 阅读(2167) 评论(1) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79971488 希望大家直接到上面的网址去查看代码,下面是本人的笔记 到目前为止,我们一直在使用numpy来自己编写神经网络。现在我们将一步步的使用深度学习的框架来很容易的构建属于自己的神经网络 阅读全文
posted @ 2019-04-01 16:53 慢行厚积 阅读(581) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/u013733326/article/details/79907419 希望大家直接到上面的网址去查看代码,下面是本人的笔记 我们需要做以下几件事: 1. 分割数据集 2. 优化梯度下降算法: 2.1 不使用任何优化算法 2.2 mini-batch 阅读全文
posted @ 2019-04-01 16:53 慢行厚积 阅读(775) 评论(0) 推荐(0) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 本章介绍的nn模块是构建与autograd之上的神经网络模块 除了nn外还会介绍神经网络中常用的工具,比如优化器optim、初始化init 阅读全文
posted @ 2019-04-01 16:51 慢行厚积 阅读(4285) 评论(0) 推荐(0) 编辑