摘要: Bert是非常强化的NLP模型,在文本分类的精度非常高。本文将介绍Bert中文文本分类的基础步骤,文末有代码获取方法。 步骤1:读取数据 本文选取了头条新闻分类数据集来完成分类任务,此数据集是根据头条新闻的标题来完成分类。 101 京城最值得你来场文化之旅的博物馆_!_保利集团,马未都,中国科学技术 阅读全文
posted @ 2021-07-27 17:29 jasonzhangxianrong 阅读(4965) 评论(0) 推荐(0) 编辑
摘要: 背景 BERT的问世向世人宣告了无监督预训练的语言模型在众多NLP任务中成为“巨人肩膀”的可能性,接踵而出的GPT2、XL-Net则不断将NLP从业者的期望带向了新的高度。得益于这些力作模型的开源,使得我们在了解其论文思想的基础上,可以借力其凭借强大算力预训练的模型从而快速在自己的数据集上开展实验, 阅读全文
posted @ 2021-07-27 17:26 jasonzhangxianrong 阅读(1738) 评论(0) 推荐(0) 编辑
摘要: 上一篇文章中,我详细讲解了 BertModel。 在今天这篇文章,我会使用 BertForSequenceClassification,在自己的训练集上训练情感分类模型。 数据集来源于 https://github.com/bojone/bert4keras/tree/master/examples 阅读全文
posted @ 2021-07-27 17:18 jasonzhangxianrong 阅读(15129) 评论(1) 推荐(1) 编辑