摘要: Step1:建一个hook Step2:加到estimator.train里 阅读全文
posted @ 2019-01-15 16:59 cup_leo 阅读(1317) 评论(0) 推荐(0) 编辑
摘要: Bert系列(一)——demo运行 Bert系列(二)——模型主体源码解读 Bert系列(三)——源码解读之Pre-trainBert系列(四)——源码解读之Fine-tune 转载自: https://www.jianshu.com/p/3d0bb34c488a [NLP自然语言处理]谷歌BERT 阅读全文
posted @ 2019-01-15 15:19 cup_leo 阅读(1436) 评论(0) 推荐(0) 编辑
摘要: BERT:用于语义理解的深度双向预训练转换器(Transformer) 鉴于最近BERT在人工智能领域特别火,但相关中文资料却很少,因此将BERT论文理论部分(1-3节)翻译成中文以方便大家后续研究。 · 摘要 本文主要介绍一个名为BERT的模型。与现有语言模型不同的是,BERT旨在通过调节所有层中 阅读全文
posted @ 2019-01-15 06:48 cup_leo 阅读(868) 评论(0) 推荐(0) 编辑