摘要: https://zhuanlan.zhihu.com/p/590311003 前言 GPT系列是OpenAI的一系列预训练文章,GPT的全称是Generative Pre-Trained Transformer,顾名思义,GPT的目的就是通过Transformer为基础模型,使用预训练技术得到通用的 阅读全文
posted @ 2023-05-06 15:28 乐乐章 阅读(513) 评论(0) 推荐(0) 编辑
摘要: 2. Byte Pair Encoding原理 在NLP模型中,输入通常是一个句子,例如 "I went to New York last week." ,一句话中包含很多单词(token)。传统的做法是将这些单词以空格进行分隔,例如['i', 'went', 'to', 'New', 'York' 阅读全文
posted @ 2023-05-06 11:16 乐乐章 阅读(77) 评论(0) 推荐(0) 编辑