摘要: 这些关于Transformer和Bert的文章不错,做一下记录: 《Transformer模型浅析》 https://zhuanlan.zhihu.com/p/74723305 文中引用了一篇国外的博客:https://jalammar.github.io/illustrated-transform 阅读全文
posted @ 2022-02-10 21:20 blcblc 阅读(60) 评论(0) 推荐(0) 编辑
摘要: 今天看了篇文章,把NLP归纳成五大类,我觉得还是有一定道理的。 https://blog.csdn.net/Datawhale/article/details/119090740 阅读全文
posted @ 2022-02-10 16:13 blcblc 阅读(98) 评论(0) 推荐(0) 编辑
摘要: 有不少资料讲数据集的,太多了就有些信息过剩了,把我自己认为还不错的数据集做一下记录 NLP WikiText:http://metamind.io/research/the-wikitext-long-term-dependency-language-modeling-dataset/ WikiTe 阅读全文
posted @ 2022-02-10 15:52 blcblc 阅读(1280) 评论(0) 推荐(0) 编辑