摘要: 概述 做nlp的肯定都听说过bert了,它属于迁移学习,官方提供了通用语料bert预训练结果,通过微调,可以提高下游任务的准确率。但是bert使用的维基百科这类的通用语料,对特定领域的文本特征学的不是很好。例如我所在的医疗领域,bert并不能很好区分医学特征,此时就需要我们对自己的语料进行预训练。b 阅读全文
posted @ 2020-05-06 20:22 大熊猫淘沙 阅读(2858) 评论(1) 推荐(0) 编辑