08 2019 档案

摘要:CS231n note 5.1 CNN_history now: 略 5.2 CNN 上节课我们谈到了全连接层的概念: 对于全连接层而言,我们要做的就是在这些向量上进行操作。 例如: 但是至于卷积层,与前者截然不同的地方就是可以保持空间结构 例如下图: 一张32×32×3的图片,我们并非将它展成长向 阅读全文
posted @ 2019-08-18 09:05 M1kanN 阅读(211) 评论(0) 推荐(0) 编辑
摘要:CS231n 学习笔记 4.2 神经网络 Neural networks 之前我们已经使用了 很多线性分类函数 现在我们不用单变换的: 我们首先有线性层,然后有这个非线性计算,继而在顶层再加入另一个线性层。然后到这里,最后我们可以得到一个计分函数。输出计分向量。 一般来说,神经网络就是由简单函数构成 阅读全文
posted @ 2019-08-18 08:58 M1kanN 阅读(273) 评论(0) 推荐(0) 编辑
摘要:CS231n 4.1 Backpropagation 回顾: 两个损失函数: 优化的方法: 如何计算梯度: 1. 用有限差分估计 2. 直接计算偏导数(解析梯度) 今天,我们要学习 如何计算任意复杂度的解析梯度 要用到一个叫做计算图的框架: 每一个节点代表着计算 上图是我们讲过的线性分类器 这里使用 阅读全文
posted @ 2019-08-14 16:48 M1kanN 阅读(207) 评论(0) 推荐(0) 编辑
摘要:CS231n 3.1 Lost Function 我们上次提到,要如何选择最优的W呢? 这就是要选择几种损失函数了。 我们要找到一种可行的方法来选择最优的W 先看简单的3个样本的例子 正式定义损失函数: x是样本不带标签,y则是标签 在Cafar10,我们要把图片分类到10个类别中去。 所以,在这里 阅读全文
posted @ 2019-08-13 20:57 M1kanN 阅读(279) 评论(0) 推荐(0) 编辑
摘要:CS231n 2 K Nearest Neighbors note by Orangestar 1. codes: 2. 缺点:训练的时间复杂度是O(1),而预测的时间复杂度是O(N) 当然,这个算法还可以选择选取K个最近的点,然后加权投票 http://vision.stanford.edu/te 阅读全文
posted @ 2019-08-09 20:42 M1kanN 阅读(217) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示