摘要: 目标定位 图片分类已经很熟悉了,判断输入的图片是否是一只猫。目标检测还涉及到一个定位的事,它需要检测到图片中汽车的位置并标一个方框出来。目前现研究分类定位问题,通常只有一个较大的对象位于图片中间的位置,我们需要对它进行识别和定位。而在对象检测问题中,图片可以包含多个对象。图片分类→分类定位→目标检测 阅读全文
posted @ 2022-04-09 12:08 诸葛村夫CC 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 为找到效果良好的神经网络,参考别人的网络是最好的方法。实际上,在计算机视觉任务中表现良好的神经网络框架往往也适用于其他任务。 经典网络: 残差网络 如图是两个全连接层,中间蓝色字体的写出的是正向传播的过程,注意这里吴恩达把计算z的那一步称为线性激活,a称为非线性激活,本质与以前学的一样。此时如果将第 阅读全文
posted @ 2022-04-09 11:49 诸葛村夫CC 阅读(70) 评论(0) 推荐(0) 编辑
摘要: 卷积就是通过用一个过滤器去和一个图像做卷积运算(对应像素相乘最后九个数值相加为一个数值,然后移动一个位置),然后得到一个新的图像,这里面能显示出原图像色彩变化的边缘。 边缘检测可以是纵向的横向的或者其他角度的(取决于过滤器的形态),过滤器一般为奇数,可以是3*3,5*5,7*7等,大多数时候使用3* 阅读全文
posted @ 2022-04-09 11:45 诸葛村夫CC 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 假设你正在训练一个分类器模型,一段时间后其准确率达到了90%,之后你想再提高一点,但很有可能尝试了许许多多的办法努力了六个月之后,效果微乎其微。我们将学习一些分析方法,避免你南辕北辙。 正交化 建立机器学习系统的挑战之一是,有太多的超参数可以调整和尝试,而我们可以注意到高效的机器学习人员,都非常清楚 阅读全文
posted @ 2022-04-09 11:30 诸葛村夫CC 阅读(62) 评论(0) 推荐(0) 编辑
摘要: 调试处理 在所有参数中,学习率α是最重要的没有之一。其次是β、mini-batch的大小以及隐藏单元的数量。再其次是网络的层数、学习率衰减。如果使用Adam算法,它的β几乎可以使用默认值不变化。当然这是吴恩达的看法,并不是完全绝对的。 假设我们有两个超参数,可能会首先想到系统的等间距选择超参数来找到 阅读全文
posted @ 2022-04-09 11:27 诸葛村夫CC 阅读(73) 评论(0) 推荐(0) 编辑
摘要: Mini-batch(小批量)梯度下降算法 在大数据领域中的深度学习表现的并不算完美,因为庞大的数据量让训练变得很慢。Mini-batch梯度下降算法是快速优化算法的一种,能够在大数据中大幅提高效率。 吴恩达在这里介绍的不是很清晰,梯度下降算法分为批量、小批量和随机三种。 批量就是使用全部的数据进行 阅读全文
posted @ 2022-04-09 11:24 诸葛村夫CC 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 训练、开发、测试集 假设这个长方形是训练数据,第一部分为训练集,第二部分为简单交叉验证集(或称开发集),第三部分为测试集。训练集用于训练算法,通过验证集选择最好的模型,经过充分的验证选定最好的模型(从几套拟合效果不错的算法中验证出一套最有效的),然后放在测试集上评估。 在曾经机器学习的小数据量时代, 阅读全文
posted @ 2022-04-09 11:21 诸葛村夫CC 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 概述 深层神经网络就是增加隐藏层的数量,我们发现有一些问题只有深层神经网络才能解决,但通常需要用到深度学习时先从简单的逻辑回归尝试训练集比较好,把隐藏层的层数作为一个参数来一点点调整,选择较优解。 我们通常使用L来表示神经网络的层数,例如L=4。用n[l]来表示第L层神经单元的个数,如n[1]=5, 阅读全文
posted @ 2022-04-09 11:18 诸葛村夫CC 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 概览 首先将一个逻辑回归拓展为神经网络大概如上图所示,需要说明上标用方括号的表示不同层,区别于之前的用圆括号表示的上标(表示不同的样本)。反向传播同理往回传就行。 x的那一层被称为输入层,中间都是隐藏层,最后只有一个节点的是输出层。隐藏层在神经网络学习过程中,其具体数值我们是不知道的,所以称为隐藏层 阅读全文
posted @ 2022-04-09 11:15 诸葛村夫CC 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 逻辑回归中的梯度下降算法 L为逻辑回归的损失函数,其中a是逻辑回归的输出,y是样本的真值。 假设有两个特征x1\x2,那么就还需要两个参数w1\w2,再加上一个b(常数项,就是机器学习中的x0),才能得到逻辑回归的结果a,继而算出损失函数L。 此处我们学习的是梯度下降算法,实际上核心就是右下角蓝色字 阅读全文
posted @ 2022-04-09 11:13 诸葛村夫CC 阅读(97) 评论(0) 推荐(0) 编辑