摘要:
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。 阅读全文
![斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型](https://img2022.cnblogs.com/blog/2637458/202205/2637458-20220516161419263-541068344.png)
摘要:
NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。 阅读全文
![斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型(ELMo, transformer)](https://img2022.cnblogs.com/blog/2637458/202205/2637458-20220516161522020-138722541.png)
摘要:
NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。 阅读全文
![斯坦福NLP课程 | 第12讲 - NLP子词模型](https://img2022.cnblogs.com/blog/2637458/202205/2637458-20220516154839925-224841065.png)