摘要:策略学习:学习action 价值学习:最大的回报
阅读全文
摘要:重点是损失函数的改进 这个损失函数是用来衡量两张图片的相似度、 损失函数:损失函数(content)+损失函数(style) 损失函数(content):卷积网络的每一层的卷积矩阵的差值逐点做差求和 损失函数(style): 卷积网络的每一层的对应点的做乘积求和 注意:x:合成图片每一层的卷积 F
阅读全文
摘要:部分代码与训练数据 R-CNN(Cafffe + MATLAB): https://github.com/rbgirshick/rcnn (非常慢,看看就好)Fast R-CNN(Caffe + MATLAB): https://github.com/rbgirshick/fast-rcnn (非端
阅读全文
摘要:Caffe vs Torch vs TensorFlow vs MxNet
阅读全文
摘要:完整CNN演示图:http://cs231n.github.io/assets/conv-demo/index.html
阅读全文
摘要:强化学习与DQN 强化学习成就 Learned the world’s best player of Backgammon (Tesauro 1995) Learned acrobatic helicopter autopilots (Ng, Abbeel, Coates et al2006+
阅读全文
摘要:CNN推展案例:图像检测、NeuralStyle 图像识别与定位 思路1:视作回归 思路2:借助图像窗口物体识别 边缘策略/选择性搜索 => R-CNN R-CNN => Fast R-CNN Fast R-CNN => Faster R-CNNNeuralStyle艺术化图片 原理
阅读全文
摘要:CNN训练注意事项与框架使用 Mini-batch SGD 不断循环:① 采样一个batch数据(比如32张,可以做镜像对称)② 前向计算得到损失loss③ 反向传播计算梯度(一个 batch上的)④ 用这部分梯度迭代更新权重参数 训练注意点 2种方式去均值 不要做标准化、PCA和白化 权重
阅读全文
摘要:CNN与常用框架 主要内容神经网络与卷积神经网络 1.层级结构 2.数据处理 3.训练算法 4.优缺点实际搭建与训练CNN 1.典型CNN 2.训练与fine-tuning常用框架与应用 1.常用框架 2.广泛应用 神经网络长什么样? 什么鬼… 完整演示图:http://cs231n.gith
阅读全文
摘要:梯度下降法与反向传播 梯度下降法1.损失函数可视化2.最优化3.梯度下降反向传播1.梯度与偏导2.链式法则3.直观理解4.Sigmoid例子 两个重要函数得分函数损失函数核心目标找到最合适的参数w.使得损失函数取值最小化。也就是最优化的过程 损失函数往往定义在非常高维的空间比如CIF
阅读全文
摘要:这节课主要是讲了些基本的numpy,scipy和线性的分类器(图像上面,比如knn),还讲了下一些损失函数 一:numpy,scipy和线性的分类器(图像上面,比如knn)主要讲代码 注意;axis=0 表示列 axis=1表示行 numpy.random.rand(d0, d1, ..., dn)
阅读全文
摘要:梯度方向:上升的方向 梯度下降:沿着梯度的反方向下降,来最小化损失函数,也就是沿着梯度的反方向 泰勒级数:展开式通项 贝叶斯公式:后验概率=先验概率*条件概率 特征值与特征向量:特征值不同,特征向量线性无关 PCA:降维的同时尽可能的保留原始的信息 过程 1)先求解协方差矩阵 2)求解协方差矩阵的特
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-tackling-the-limits-of-dl-for-nlp.html 最后一课,总结了目前这两个领域中的难题,介绍了一些前沿研究:快16倍的QRNN、自动设计神经网络的NAS等。 深度学习已经漂亮地完成了许多单项任务
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-nlp-issues-architectures.html/3 课程介绍了各种各样的深度学习网络与应用,是时候从更高层次思考自然语言处理存在的问题与展望未来了。虽然BiLSTM与attention几乎统治了NLP,但在篇章级
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-dmn-question-answering.html/2 最有意思的一课,将所有NLP任务视作QA问题。模仿人类粗读文章和问题,再带着问题反复阅读文章的行为,利用DMN这个通用框架漂亮地解决了从词性标注、情感分析到机器翻译
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-coreference-resolution.html 从规则启发式代词回指消解出发,介绍了传统特征工程二分类模型、启发式损失的分类模型,过渡到利用强化学习自动缩放损失的神经网络模型。 什么是指代消解 找出文本中名词短语所指
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-tree-recursive-neural-networks-and-constituency-parsing.html 介绍了著名的复合性原理,由此启发得到树形RNN,用于表示短语和句子级别的语义。从朴素树形RNN到SU-
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-convolutional-neural-networks.html 补充了NLP中相对冷门的CNN,谈了谈调参与发论文的潜规则。 从RNN到CNN RNN无法利用未来的特征预测当前单词,就算是bi-RNN,也不过是双向重蹈
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-end-to-end-asr.html 这次斯坦福请到了深度学习教父Hinton的弟子Navdeep来讲语音识别,他正在英伟达工作,怪不得N卡在深度学习中的地位如此之高。而他本人也在用Dell的搭载了N卡的XPS跑Ubunt
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-gru-nmt.html 从动机层面直观地充实了GRU和LSTM的理解,介绍了MT的评测方法,讨论了NMT中棘手的大词表问题和一些常见与最新的解决办法。 深入LSTM 宏观上的LSTM Cell: 将所有操作都gate起来,
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-9-nmt-models-with-attention.html 90年代出现了一种类似RNN的更复杂的框架:
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-mt-lstm-gru.html 其中,带黑点的表示离散的向量表示,否则表示连续的向量空间。 3、使用深度RNN LSTM单元结构如下: 那时候的NN模型还是仅限于重新排序传统MT模型产生的结果,而最新的研究就是完全甩开了M
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-rnn-and-language-models.html 实现这个任务的朴素网络结构就是一个裸的RNN: 但是这个网络无法利用当前词语的下文辅助分类决策,解决方法是使用一些更复杂的RNN变种。 Bidirectional R
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-tensorflow.html 这节课由TA们介绍了TF里的几个基本概念(graph、variable、placeholder、session、fetch、feed),基本流程。然后现场敲代码演示如何在TF上跑线性回归和训练
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-dependency-parsing.html 句法分析还算熟悉,就跟着复习了神经网络句法分析的动机与手法,了解一下比较前沿的动向
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-backpropagation-and-project-advice.html 最后一次数学课,其实都是些很基础的推导而已。从四个不同的层面讲解反向传播,其中电路和有向图类比还是很直观新颖的解释。
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-word-window-classification-and-neural-networks.html 这节课介绍了根据上下文预测单词分类的问题,与常见神经网络课程套路不同,以间隔最大化为目标函数,推导了对权值矩阵和词向量的
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/cs224n-advanced-word-vector-representations.html 这节课从传统的基于计数的全局方法出发,过渡到结合两者优势的GloVe,并介绍了词向量的调参与评测方法。 复习:word2vec的主要思路 遍
阅读全文
摘要:本文转自:http://www.hankcs.com/nlp/word-vector-representations-word2vec.html 如何表示一个词语的意思 先来看看如何定义“意思”的意思,英文中meaning代表人或文字想要表达的idea。这是个递归的定义,估计查询idea词典会用me
阅读全文
摘要:原文转载:http://www.hankcs.com/nlp/cs224n-introduction-to-nlp-and-deep-learning.html 什么是自然语言处理 这是一门计算机科学、人工智能以及语言学的交叉学科。虽然语言只是人工智能的一部分(人工智能还包括计算机视觉等),但它是非
阅读全文
摘要:斯坦福大学CS224n(全称:深度学习与自然语言处理)是自然语言处理领域很受欢迎的课程,由 Chris Manning 和 Richard Socher 主讲 自然语言处理是理解复杂人类语言交际的关键人工智能技术。本系列讲座全面介绍了应用于NLP的前沿研究,这种方法最近在许多不同的NLP任务中获得了
阅读全文