2023年3月25日

GPT前世今生-transformer

摘要: GPT前世今生-transformer 路线: hugging(tang)->transformer(tang)-> GPT2 NLP 中的transformer 都是分类问题 hugging中 怎么查预训练模型。 FAQ 1 多头注意力机制中什么是key,value和query? 答: 在Tran 阅读全文

posted @ 2023-03-25 11:56 lexn 阅读(72) 评论(0) 推荐(0) 编辑

导航