摘要: 该文主要采用“知识蒸馏”方法对BERT(预训练语言模型)精简、优化,将较大模型压缩成较小的模型,最终目的是:提高模型推理的效率,让运行在智能手机等硬件设备上的深度学习模型具有轻量级、响应快及能源利用率高等特性。 在2019年的NLP领域预训练+微调的模型训练思路百家争鸣,ElMo、GPT、BERT、 阅读全文
posted @ 2020-02-03 20:08 今夜无风 阅读(1269) 评论(0) 推荐(0)
摘要: Link,Paper,Type,Model,Date,Citations https://arxiv.org/abs/1801.06146,Universal Language Model Fine-tuning for Text Classification,New Model ,ULMFiT,1 阅读全文
posted @ 2020-02-03 13:55 今夜无风 阅读(864) 评论(0) 推荐(0)
摘要: 给2020年NLP方向做一个指引: 2019 年,可谓是 NLP 发展历程中具有里程碑意义的一年,而其背后的最大功臣当属 BERT ! 2018 年底才发布,BERT 仅用 2019 年一年的时间,便以「势如破竹」的姿态成为了 NLP 领域首屈一指的「红人」,BERT 相关的论文也如涌潮般发表出来。 阅读全文
posted @ 2020-02-03 13:51 今夜无风 阅读(448) 评论(0) 推荐(0)