摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.1基础模型 [1] Sutskever I, Vinyals O, Le Q V. Sequence to Sequence Learning with Neural Networks[J]. 2014, 4 阅读全文
posted @ 2018-08-30 15:41 WUST许志伟 阅读(486) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.10词嵌入除偏 Debiasing word embeddings Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Wom 阅读全文
posted @ 2018-08-30 11:00 WUST许志伟 阅读(665) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.9 Sentiment classification 情感分类 情感分类任务简单来说是看一段文本,然后分辨这个人是否喜欢或不喜欢他们正在谈论的这段文本。 情感分类 一个最大的挑战是可能标记的训练集没有那么多,但是有了 阅读全文
posted @ 2018-08-30 09:38 WUST许志伟 阅读(575) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.8 GloVe word vectors GloVe词向量 Pennington J, Socher R, Manning C. Glove: Global Vectors for Word Representati 阅读全文
posted @ 2018-08-29 21:27 WUST许志伟 阅读(815) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.7 负采样 Negative sampling Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phra 阅读全文
posted @ 2018-08-29 18:56 WUST许志伟 阅读(3319) 评论(2) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.6 Word2Vec Word2Vec相对于原先介绍的词嵌入的方法来说更加的简单快速。 Mikolov T, Chen K, Corrado G, et al. Efficient Estimation of Wor 阅读全文
posted @ 2018-08-29 14:17 WUST许志伟 阅读(877) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.3词嵌入的特性 properties of word embedding Mikolov T, Yih W T, Zweig G. Linguistic regularities in continuous spac 阅读全文
posted @ 2018-08-28 20:05 WUST许志伟 阅读(1260) 评论(0) 推荐(0) 编辑
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.1词汇表征 Word representation 原先都是使用词汇表来表示词汇,并且使用1-hot编码的方式来表示词汇表中的词汇。 这种表示方法最大的缺点是 它把每个词孤立起来,这样使得算法对相关词的泛化能力不强 阅读全文
posted @ 2018-08-28 11:16 WUST许志伟 阅读(720) 评论(0) 推荐(0) 编辑
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.10长短期记忆网络(Long short term memory)LSTM Hochreiter S, Schmidhuber J. Long Short-Term Memory[J]. Neural Computa 阅读全文
posted @ 2018-08-27 20:17 WUST许志伟 阅读(508) 评论(0) 推荐(0) 编辑
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.7对新序列采样 基于词汇进行采样模型 在训练完一个模型之后你想要知道模型学到了什么,一种非正式的方法就是进行一次新序列采样。 一个序列模型模拟了任意特定单词序列的概率,对新序列采样即是对概率分布进行采样来生成一个新的 阅读全文
posted @ 2018-08-21 22:22 WUST许志伟 阅读(1008) 评论(0) 推荐(0) 编辑
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.5不同类型的循环神经网络 上节中介绍的是 具有相同长度输入序列和输出序列的循环神经网络,但是对于很多应用$T_和T_$并不一定相等。 在此节会介绍不同的能够处理不同问题的循环神经网络。 多对多循环神经网络 对于命名实 阅读全文
posted @ 2018-08-21 11:15 WUST许志伟 阅读(336) 评论(0) 推荐(0) 编辑
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.3循环神经网络模型 为什么不使用标准的神经网络 假如将九个单词组成的序列作为输入,通过普通的神经网网络输出输出序列, 在不同的例子中输入数据和输出数据具有不同的长度,即每个数据不会有一样的长度 也许每个语句都有最大长 阅读全文
posted @ 2018-08-20 17:01 WUST许志伟 阅读(567) 评论(0) 推荐(0) 编辑
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.1什么是序列模型 在进行语音识别时,给定了一个输入音频片段X,并要求输出片段对应的文字记录Y,这个例子中的输入和输出都输序列数据。因为X是一个按时序播放的序列音频而输出Y是一系列单词。 音乐生成使用的也是序列数据,在 阅读全文
posted @ 2018-08-19 13:39 WUST许志伟 阅读(731) 评论(0) 推荐(0) 编辑
摘要: 4.4特殊应用:人脸识别和神经网络风格转换 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 4.11一维和三维卷积 二维和一维卷积 对于2D卷积来说,假设原始图像为$14143$的三通道图像,使用32个$553$的卷积核(其中3表示通道数,一般只关注感受野的大小,而卷积核的深度大小与输入 阅读全文
posted @ 2018-08-18 21:38 WUST许志伟 阅读(2010) 评论(0) 推荐(0) 编辑
摘要: 4.4特殊应用:人脸识别和神经网络风格转换 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 4.6什么是神经网络风格转换neural style transfer 将原图片作为内容图片Content,风格图片Style,生成的图片用Generated image 表示。 4.7深度卷积神 阅读全文
posted @ 2018-08-18 20:52 WUST许志伟 阅读(1394) 评论(0) 推荐(0) 编辑
摘要: 4.4特殊应用:人脸识别和神经网络风格转换 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 4.1什么是人脸识别 Face verification人脸验证 VS face recognition人脸识别 Face verification人脸验证 人脸验证 输入是一张图片,以及人的姓名 阅读全文
posted @ 2018-08-16 21:48 WUST许志伟 阅读(3127) 评论(0) 推荐(0) 编辑
摘要: 4.3目标检测 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.10 region proposals候选区域与R-CNN 基于滑动窗口的目标检测算法将原始图片分割成小的样本图片,并传入分类器进行检测。 基于卷积神经网络的滑动窗口目标检测方法把原始图像分割成小的网格,并分别在网格中检 阅读全文
posted @ 2018-08-14 17:27 WUST许志伟 阅读(754) 评论(0) 推荐(0) 编辑
摘要: 4.3目标检测 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.6交并比intersection over union 交并比函数(loU)可以用来评价对象检测算法,可以被用来进一步改善对象检测算法的性能。 如何评价一个算法的好坏,即如图中假设红色框线表示 真实的对象所在边界框,紫色 阅读全文
posted @ 2018-08-14 15:51 WUST许志伟 阅读(592) 评论(0) 推荐(0) 编辑
摘要: 4.3目标检测 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.1目标定位 对象定位localization和目标检测detection 判断图像中的对象是不是汽车--Image classification 图像分类 不仅要判断图片中的物体还要在图片中标记出它的位置--Classi 阅读全文
posted @ 2018-08-13 21:16 WUST许志伟 阅读(5298) 评论(0) 推荐(0) 编辑
摘要: 4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.9迁移学习 "迁移学习" 的基础知识已经介绍过,本篇博文将介绍提高的部分。 提高迁移学习的速度 可以将迁移学习模型冻结的部分看做为一个函数,因为每次都要使用这个冻结模型的输出值来训练自己的 阅读全文
posted @ 2018-07-25 21:41 WUST许志伟 阅读(1425) 评论(0) 推荐(0) 编辑
摘要: 4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 参考文献 Inception网络 Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[J]. 2014:1 9. 2. 阅读全文
posted @ 2018-07-25 16:26 WUST许志伟 阅读(564) 评论(0) 推荐(0) 编辑
摘要: 4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 参考文献 [残差网络] He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[J]. 2015:7 阅读全文
posted @ 2018-07-24 21:52 WUST许志伟 阅读(2919) 评论(0) 推荐(2) 编辑
摘要: 4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 参考文献 [LeNet] Lécun Y, Bottou L, Bengio Y, et al. Gradient based learning applied to document recognition[J]. 阅读全文
posted @ 2018-07-24 16:33 WUST许志伟 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 4.1卷积神经网络 " " " " " " "吴恩达老师课程原地址" 1.9池化层 优点 池化层可以缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性。 池化层操作 池化操作与卷积操作类似,但是池化操作是保留池化窗口在扫过原始图像中时的最大值。注意:每个信道都在其单独的信道中执行池化操作。 其 阅读全文
posted @ 2018-07-24 10:09 WUST许志伟 阅读(858) 评论(0) 推荐(0) 编辑
摘要: 4.1卷积神经网络 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.6多通道卷积 原理 对于一个多通道的卷积操作,可以将卷积核设置为一个立方体,则其从左上角开始向右移动然后向下移动,这里设置Padding模式为VALID,步长为1. 注意:卷积核中的颜色通 阅读全文
posted @ 2018-07-23 19:18 WUST许志伟 阅读(5783) 评论(0) 推荐(0) 编辑