05 2022 档案
摘要:
本文讲解了卷积神经网络的重点知识:卷积层、池化层、ReLU层、全连接层、局部连接、参数共享、最大池化、步长、零填充、经典案例等【对应 CS231n Lecture 5】
阅读全文

摘要:
本文讲解了神经网络计算图、前向传播与反向传播、标量与向量化形式计算、求导链式法则应用、神经网络结构、 激活函数等内容【对应 CS231n Lecture 4】
阅读全文

摘要:
本文讲解了损失函数(数据损失与正则损失)、多类 SVM 损失与Softmax损失比较、梯度计算方法(数值梯度与解析梯度)、梯度下降优化算法等【对应 CS231n Lecture 3】
阅读全文

摘要:
图像分类是计算机视觉的核心任务。本文讲解数据驱动的模型算法,包括最邻近算法、KNN分类器、线性分类器的原理、各自的优缺点和实际应用【对应 CS231n Lecture 2】
阅读全文

摘要:
本文讲解了斯坦福大学 CS231n 课程的内容框架(深度学习 + 卷积神经网络 + 计算机视觉应用)和学习基础,帮助了解计算机视觉的历史和技术发展【对应 CS231n Lecture 1】
阅读全文

摘要:
本教程依托于 Stanford 斯坦福大学的《CS231n:深度学习与计算机视觉》,对深度学习与计算机视觉方向的图像分类、CNN、RNN、目标检测、图像分割、生成模型等各个主题做了体系化的梳理
阅读全文

摘要:
NLP课程第20讲是课程最后一讲,介绍了NLP的兴起历程和发展方向,包括使用未标记数据进行翻译、大模型、GPT-2、QuAC、HotPotQA等。
阅读全文

摘要:
NLP课程第19讲介绍了 NLP 和 AI 偏见产生的原因、衡量和应用,以及通过数据、机器学习技术、多任务学习等减少偏见、促进公平。
阅读全文

摘要:
NLP课程第18讲介绍了基于词向量空间模型的构建、结构反向传播(BTS)及其Python编程、简单TreeRNN及应用、 复杂TreeRNN结构、斯坦福大学HAI研究所等。
阅读全文

摘要:
本文介绍了 NLP 句法分析与树形递归神经网络,主要讲解树形递归神经网络、句法分析 (Constituency Parsing )、Recursive Neural Networks (RNN)、成分句法分析、SU-RNN、MV-RNN、RNTN等。
阅读全文

摘要:
NLP课程第17讲介绍了问答系统(QA)、多任务学习、自然语言处理的十项全能(decaNLP)、多任务问答系统(MQAN)等。
阅读全文

摘要:
NLP课程第16讲介绍了共指消解(指代消解) 的定义、作用和应用、指代检测、指代对模型、指代排序模型 、指代聚类模型 、效果评估等。
阅读全文

摘要:
NLP课程第15讲回顾了NLG要点,介绍了解码算法、NLG任务及其神经网络解法,着手解决NLG评估中的棘手问题,并分析了NLG目前的趋势以及未来的可能方向。
阅读全文

摘要:
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
阅读全文

摘要:
NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。
阅读全文

摘要:
NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。
阅读全文

摘要:
NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。
阅读全文

摘要:
本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。
阅读全文

摘要:
NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。
阅读全文

摘要:
本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、DCN、VQA等。
阅读全文

摘要:
NLP课程第9讲介绍了课程大项目的细节、寻找研究主题、项目数据、门控神经序列模型回顾、机器翻译主题、研究方式、结果呈现和评估等。
阅读全文

摘要:
NLP课程第8讲介绍了机器翻译、sequence-to-sequence神经结构及其在机器翻译中的应用,并介绍了注意力机制及其对seq2seq效果的提升。
阅读全文

摘要:
本文介绍了序列到序列模型(seq2seq)及其在翻译系统中的应用,以及注意力机制、序列解码器、神经翻译系统、基于字符级别的翻译模型等。
阅读全文

摘要:
NLP课程第7讲介绍RNNs的梯度消失问题、两种新类型RNN(LSTM和GRU),以及其他梯度消失(爆炸)的解决方案——Gradient clipping、Skip connections等。
阅读全文

摘要:
NLP课程第6讲介绍一个新的NLP任务 Language Modeling (motivate RNNs) ,介绍一个新的神经网络家族 Recurrent Neural Networks (RNNs)。
阅读全文

摘要:
本文介首先介绍了语言模型及其应用场景,进而介绍了循环神经网络(RNN)及优化后的变种LSTM(长短时记忆网络)和GRU模型。
阅读全文

摘要:
NLP课程第5讲内容覆盖:句法结构(成分与依赖),依赖语法与树库,基于转换的依存分析模型,神经网络依存分析器等。
阅读全文

摘要:
本文介绍 Dependency Grammar、Dependency Structure、Neural Dependency Parsing、依存解析、依存句法 和 语法依赖等内容。
阅读全文

摘要:
NLP课程第4讲主要内容是:单神经网络的梯度矩阵与建议、计算图与反向传播、神经网络训练实用知识技能(包括正则化、向量化、非线性表达能力、参数初始化、优化算法、学习率策略)等。
阅读全文

摘要:
NLP课程第3讲主要内容是回顾神经网络知识,并基于NLP场景讲解命名实体识别、基于窗口数据的预测、基于pytorch实现的分类器等。
阅读全文

摘要:
本文单层&多层介绍神经网络及反向传播技术,并讨论训练神经网络的实用技巧,包括神经元单元(非线性)、梯度检查、Xavier参数初始化、学习率、Adagrad优化算法等。
阅读全文

摘要:
NLP课程第2讲内容覆盖ord2vec与词向量、算法优化基础、计数与共现矩阵、GloVe模型、词向量评估、word senses等。
阅读全文

摘要:
本文介绍GloVe词向量、词向量内部与外部评估方法、类比任务中的词向量训练超参数影响、相关度评估任务中词向量与人工表现差异、基于上下文处理一词多义问题和窗分类。
阅读全文
