摘要: 04. 序列模型 第二周 自然语言处理与词嵌入 2.1 & 2.2 词嵌入 前面我们都是借助词典用one-hot向量表示词汇,这样做有个缺点,就是不能表示词汇之间的相关性,比如苹果、橘子应该有着相似的表达。 另一种词汇的表示方法是用特征化的表示,可以选择一些抽象特征来归纳不同词汇的特点: 这种将词汇 阅读全文
posted @ 2020-02-05 13:03 tofengz 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 05. 序列模型 第一周 循环序列模型 1.1 序列数据 有大量的任务处理的都是序列数据,所以我们需要一个序列模型。(按吴恩达老是这么说,我做的视频任务应该也是序列数据) 1.2 符号表示 以自然语言处理(NLP)任务为例,一个句子记为一个样本\( x^{(i)} \),句子中的每个词记为\( x^ 阅读全文
posted @ 2020-02-04 14:43 tofengz 阅读(325) 评论(0) 推荐(0) 编辑
摘要: 04. 卷积神经网络 第四周 特殊应用 4.1 人脸识别 首先要区别人脸验证(face verification)和人脸识别(face recognition)。 人脸验证(1:1):输入图片和姓名(ID),系统判断输入图片是否为其所声明的身份; 人脸识别(1:K):系统拥有一个K人的数据库,输入图 阅读全文
posted @ 2020-02-04 11:04 tofengz 阅读(402) 评论(0) 推荐(0) 编辑
摘要: 04. 卷积神经网络 第三周 目标检测 3.1 & 3.2 分类定位和特征点检测 目标检测(detection)其实是一个非常困难的问题,一幅待检测图片中可能包含许多目标,这些目标的类别多种多样,同一类别的目标数目可能也不唯一。 可以从一个简化的问题去入手,那就是分类定位(classificatio 阅读全文
posted @ 2020-02-02 23:53 tofengz 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 04. 卷积神经网络 第二周 深度卷积网络实例分析 2.1 & 2.2 经典网络 经典的卷积神经网络包括: LeNet-5 AlexNet VGG 都是从解决分类任务的过程中发展出来的,下面逐个进行介绍。 LeNet-5的特点: 网络比较浅,参数量60K左右;一个或几个卷积层后加一个池化层,最后全连 阅读全文
posted @ 2020-02-01 23:36 tofengz 阅读(344) 评论(0) 推荐(0) 编辑
摘要: 04. 卷积神经网络 第一周 卷积神经网络 1.1 计算机视觉 计算机视觉方向算是深度学习领域发展最快的方向之一,出现了大量富有创造性的工作。 而面对图片处理,首先出现的问题就是数据量巨大,一个1000×1000的RGB图片直接输入神经网络将有1百万的特征,网络的参数也将非常庞大,对于训练、设备内存 阅读全文
posted @ 2020-02-01 15:28 tofengz 阅读(195) 评论(0) 推荐(0) 编辑
摘要: 03. 结构化机器学习项目 第二周 机器学习策略(二) 2.1 误差分析 前面提到,对于模型错误率高于人类错误率的,可以采取误差分析等方法改进。比如,将分类模型分类错误的样本拎出来看看,找找主要原因,找找提升空间更大的改进方向,而不是自己瞎猜盲干。 吴恩达老师给出的方法:抽取一部分模型出错的样本,比 阅读全文
posted @ 2020-01-31 23:47 tofengz 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 03. 结构化机器学习项目 第一周 机器学习策略(一) 1.1 动机 当我们想要改进机器学习项目的时候,面临着诸多选择: 收集更多数据 收集更多样化的数据集 使用梯度下降法训练模型更久一些 用Adam算法代替梯度下降 尝试更大的网络 尝试更小的网络 尝试dropout 增加\(L_2\)正则化 修改 阅读全文
posted @ 2020-01-31 16:42 tofengz 阅读(185) 评论(0) 推荐(0) 编辑
摘要: 02. 改善深度神经网络:超参数调试、正则化和优化 第三周 超参数调试、Batch Norm和程序框架 3.1 & 3.2 & 3.3 选择超参数 在训练神经网络时我们有很多超参数要进行调试:学习率、动量、Adam的参数、学习率衰减、batch size、隐藏层数、隐藏单元数等等。吴恩达老师建议较为 阅读全文
posted @ 2020-01-30 23:07 tofengz 阅读(254) 评论(0) 推荐(0) 编辑
摘要: 02. 改善深度神经网络:超参数调试、正则化和优化 第二周 优化算法 2.1 & 2.2 Mini-batch梯度下降法 之前所提到的梯度下降法其实指的都是 batch gradient descent,每一次进行梯度下降都要对整个数据集进行前向传播。当数据集的规模较大时,计算很慢。 Mini-ba 阅读全文
posted @ 2020-01-29 16:46 tofengz 阅读(215) 评论(0) 推荐(0) 编辑