摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 🚀 文章来源:K同学的学习圈子 📌 本周任务: 理解文中代码逻辑并成功运行 自定义输入一段英文文本进行预测(拓展内容,可自由发挥) 数据:Wikitext-2数据集 WikiText 英语词库 阅读全文
摘要:
📌 本周任务: 了解Transformer 一、Transformer宏观结构¶ 编码部分(encoders)由多层编码器(Encoder)组成。解码部分(decoders)也是由多层的解码器(Decoder)组成。每层编码器、解码器网络结构是一样的,但是不同层编码器、解码器网络结构不共享参数。 阅读全文
摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 🚀 文章来源:K同学的学习圈子 📌 本周任务: 请根据N5、N6周内容,为解码器添加上注意力机制 数据:链接 一、前期准备工作¶ 0、导入包¶ In [ ]: from __future__ 阅读全文
摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 📌 本周任务: 结合训练中N5周的内容理解本文代码 数据:链接 一、前期准备工作¶ 0、导入包¶ In [1]: from __future__ import unicode_literals, 阅读全文
摘要:
📌 本周任务: - 了解seq2seq是什么? - 基于RNN的seq2seq模型如何处理文本/长文本序列? - seq2seq模型处理长文本序列有哪些难点? - 基于RNN的seq2seq模型如何结合attention来改善模型效果? - 可以先尝试着自己编写代码(下周更新) ## 一、seq2 阅读全文
摘要:
一、基本准备¶ 1、导入包:与train一致¶ In [ ]: import numpy as np import torch from torch import nn from torch.autograd import Variable from torch.utils.data import 阅读全文
摘要:
一、基本准备¶ 1、导入包¶ In [ ]: import numpy as np import torch from torch import nn from torch.autograd import Variable from torch.utils.data import Dataset, 阅读全文
摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 📌 本周任务: ● 结合Word2Vec文本内容(第1列)预测文本标签(第2列) ● 尝试根据第2周的内容独立实现,尽可能的不看本文的代码 ● 进一步了解并学习Word2Vec 任务说明 本次将 阅读全文
摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 📌 本周任务: ● 阅读NLP基础知识里Word2vec详解一文,了解并学习Word2vec相关知识 ● 学习本文内容,在下一篇文章中,将使用Word2vec辅助完成文本分类任务 数据集:htt 阅读全文
摘要:
🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 本周任务: 根据文本内容(第1列)预测文本标签(第2列) 尝试根据第一周的内容独立实现,尽可能的不看本文的代码 一、准备工作¶ 1、环境安装¶ 本次环境与N1一致,但是这次调用本地的中文数据集,同 阅读全文