wikitext数据集

WikiText用于长时间依赖的语言建模

WikiText 英语词库数据(The WikiText Long Term Dependency Language Modeling Dataset)是一个包含1亿个词汇的英文词库数据,这些词汇是从Wikipedia的优质文章和标杆文章中提取得到,包括WikiText-2WikiText-103两个版本,相比于著名的 Penn Treebank (PTB) 词库中的词汇数量,前者是其2倍,后者是其110倍。每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖(longterm dependency)自然语言建模的场景。

Wikitext-103是超过 1 亿个语句的数据合集,全部从维基百科的 Good 与 Featured 文章中提炼出来。广泛用于语言建模,当中包括 fastai 库和 ULMFiT 算法中经常用到的预训练模型。

WikiText2是Wikitext-103 的子集,主要用于测试小型数据集的语言模型训练效果。
WikiText2可从URL = 'https://s3.amazonaws.com/research.metamind.io/wikitext/wikitext-2-v1.zip'下载、

或者:
https://s3.amazonaws.com/fast-ai-nlp/wikitext-103.tgz
https://s3.amazonaws.com/fast-ai-nlp/wikitext-2.tgz

from torchtext.datasets import WikiText2

train_iter = WikiText2(split='train')
或者
train_iter, val_iter, test_iter = WikiText2()

关于WikiText2的进一步使用,参考https://pytorch.org/tutorials/beginner/transformer_tutorial.html

论文:https://arxiv.org/abs/1609.07843,salesforce的工作

参考:
https://www.sohu.com/a/305178444_100118081
https://blog.csdn.net/qq_27009517/article/details/88233464

posted on 2021-09-27 15:29  宋岳庭  阅读(5134)  评论(0编辑  收藏  举报