摘要: Sentencepiece是google开源的文本Tokenzier工具,其主要原理是利用统计算法,在语料库中生成一个类似分词器的工具,外加可以将词token化的功能;对比开源的分词器,它会将频繁出现的字符串作为词,然后形成词库进行切分,所以它会切分的粒度会更大些。当前各个大模型的分词器基本都是基于 阅读全文
posted @ 2023-09-25 09:54 sunshine丶23 阅读(630) 评论(0) 推荐(0) 编辑