Loading

摘要: 我们使用bert的时候经常会用到huggingface中的tokenizers 进行文本分词,其中有很多函数,tokenizer.tokenize、tokenizer,convert_tokens_to_ids、tokenizer.encode、tokenizer、tokenizer.encode_ 阅读全文
posted @ 2022-11-18 15:33 戴墨镜的长颈鹿 阅读(1900) 评论(0) 推荐(0) 编辑