摘要:
该文主要采用“知识蒸馏”方法对BERT(预训练语言模型)精简、优化,将较大模型压缩成较小的模型,最终目的是:提高模型推理的效率,让运行在智能手机等硬件设备上的深度学习模型具有轻量级、响应快及能源利用率高等特性。 在2019年的NLP领域预训练+微调的模型训练思路百家争鸣,ElMo、GPT、BERT、 阅读全文
posted @ 2020-02-03 20:08
今夜无风
阅读(1269)
评论(0)
推荐(0)
摘要:
Link,Paper,Type,Model,Date,Citations https://arxiv.org/abs/1801.06146,Universal Language Model Fine-tuning for Text Classification,New Model ,ULMFiT,1 阅读全文
posted @ 2020-02-03 13:55
今夜无风
阅读(864)
评论(0)
推荐(0)
摘要:
给2020年NLP方向做一个指引: 2019 年,可谓是 NLP 发展历程中具有里程碑意义的一年,而其背后的最大功臣当属 BERT ! 2018 年底才发布,BERT 仅用 2019 年一年的时间,便以「势如破竹」的姿态成为了 NLP 领域首屈一指的「红人」,BERT 相关的论文也如涌潮般发表出来。 阅读全文
posted @ 2020-02-03 13:51
今夜无风
阅读(448)
评论(0)
推荐(0)
浙公网安备 33010602011771号