摘要: 本文记录使用BERT预训练模型,修改最顶层softmax层,微调几个epoch,进行文本分类任务。 BERT源码 首先BERT源码来自谷歌官方tensorflow版:https://github.com/google-research/bert 注意,这是tensorflow 1.x 版本的。 BE 阅读全文
posted @ 2019-08-20 17:15 不著人间风雨门 阅读(17235) 评论(3) 推荐(0) 编辑