Fork me on GitHub
摘要: 前言 在中文分词领域,已经有着很多优秀的工具,例如: jieba分词 SnowNLP 北京大学PKUse 清华大学THULAC HanLP FoolNLTK 哈工大LTP 斯坦福分词器CoreNLP BaiduLac 这里,我们不使用上述的工具,而是利用bert训练一个自己的分词器。 数据预处理 首 阅读全文
posted @ 2022-08-17 10:13 西西嘛呦 阅读(672) 评论(0) 推荐(0) 编辑