上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 30 下一页
摘要: 斯坦福NLP课程 | 第15讲 - NLP文本生成任务 NLP课程第15讲回顾了NLG要点,介绍了解码算法、NLG任务及其神经网络解法,着手解决NLG评估中的棘手问题,并分析了NLG目前的趋势以及未来的可能方向。 阅读全文
posted @ 2022-05-20 12:35 ShowMeAI 阅读(525) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型 NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。 阅读全文
posted @ 2022-05-16 16:15 ShowMeAI 阅读(229) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型(ELMo, transformer) NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。 阅读全文
posted @ 2022-05-16 15:58 ShowMeAI 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第12讲 - NLP子词模型 NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。 阅读全文
posted @ 2022-05-16 15:49 ShowMeAI 阅读(214) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络 NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。 阅读全文
posted @ 2022-05-14 07:13 ShowMeAI 阅读(451) 评论(0) 推荐(0) 编辑
摘要: NLP教程(8) - NLP中的卷积神经网络 本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。 阅读全文
posted @ 2022-05-14 07:05 ShowMeAI 阅读(171) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第10讲 - NLP中的问答系统 NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。 阅读全文
posted @ 2022-05-11 23:34 ShowMeAI 阅读(210) 评论(0) 推荐(0) 编辑
摘要: NLP教程(7) - 问答系统 本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、DCN、VQA等。 阅读全文
posted @ 2022-05-11 23:07 ShowMeAI 阅读(708) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第9讲 - cs224n课程大项目实用技巧与经验 NLP课程第9讲介绍了课程大项目的细节、寻找研究主题、项目数据、门控神经序列模型回顾、机器翻译主题、研究方式、结果呈现和评估等。 阅读全文
posted @ 2022-05-10 11:44 ShowMeAI 阅读(105) 评论(0) 推荐(0) 编辑
摘要: 斯坦福NLP课程 | 第8讲 - 机器翻译、seq2seq与注意力机制 NLP课程第8讲介绍了机器翻译、sequence-to-sequence神经结构及其在机器翻译中的应用,并介绍了注意力机制及其对seq2seq效果的提升。 阅读全文
posted @ 2022-05-10 11:37 ShowMeAI 阅读(188) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 30 下一页