摘要: 论文解读:知识图谱融入预训练模型 阅读全文
posted @ 2022-01-10 19:03 NLP论文解读 阅读(551) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 疯狂的Max 01 预训练模型与知识图谱 1.预训练模型 近年来,随着语言模型的技术发展,其在NLP领域获得巨大的成功,业界SOTA的前沿模型也大多是Transformer结构模型的变体。 Transformer结构模型使用注意力机制来获取文本中长距离字符间的依赖关系,包括对其进行优 阅读全文
posted @ 2022-03-15 19:08 NLP论文解读 阅读(1572) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 苏菲 论文题目: Prompt-free and Efficient Language Model Fine-Tuning 论文作者: Rabeeh Karimi Mahabadi 论文地址: https://openreview.net/pdf?id=6o5ZEtqP2g 02 P 阅读全文
posted @ 2022-03-14 19:02 NLP论文解读 阅读(283) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 苏菲 论文题目: Prompt-free and Efficient Language Model Fine-Tuning 论文作者: Rabeeh Karimi Mahabadi 论文地址: https://openreview.net/pdf?id=6o5ZEtqP2g 提示学习 阅读全文
posted @ 2022-03-11 20:11 NLP论文解读 阅读(349) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 疯狂的Max 论文Lexicon Enhanced Chinese Sequence Labelling Using BERT Adapter 解读 01 背景与动机 近年来,多项研究致力于将词汇信息融入中文预训练模型中以提升命名实体识别、分词和词性标注等序列标注类任务的效果。 但其 阅读全文
posted @ 2022-03-10 19:14 NLP论文解读 阅读(261) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 疯狂的Max 论文CoLAKE: Contextualized Language and Knowledge Embedding 解读 01 背景与动机 随着预训练模型在NLP领域各大任务大放异彩,一系列研究都致力于将外部知识融入大规模预训练模型,比如ERNIE[1]和KnowBER 阅读全文
posted @ 2022-03-09 19:02 NLP论文解读 阅读(302) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | LJ GLaM: Efficient Scaling of Language Models with Mixture-of-Experts https://arxiv.org/pdf/2112.06905.pdf 01 摘要 这是上个月谷歌刚刚在arxiv发布的论文,证明了一种能sc 阅读全文
posted @ 2022-03-08 21:23 NLP论文解读 阅读(797) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 朱林 论文解读: Facts as Experts: Adaptable and Interpretable Neural Memory over Symbolic Knowledge 论文作者: Google Research 论文地址: https://arxiv.org/abs 阅读全文
posted @ 2022-03-07 19:05 NLP论文解读 阅读(463) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 朱林 论文解读: Can Generative Pre-trained Language Models Serve as Knowledge Bases for Closed-book QA? 论文作者: Cunxiang Wang, Pai Liu, Yue Zhang 论文地址: 阅读全文
posted @ 2022-03-06 19:42 NLP论文解读 阅读(496) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 王翔 论文名称: Template-free Prompt Tuning for Few-shot NER 文献链接: https://arxiv.org/abs/2109.13532 01 前言 1.论文的相关背景 Prompt Learning通过设计一组合适的prompt将下游 阅读全文
posted @ 2022-03-05 20:29 NLP论文解读 阅读(1265) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 杨健 论文标题: K-BERT: Enabling Language Representation with Knowledge Graph 收录会议: AAAI 论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/5681 阅读全文
posted @ 2022-03-04 13:48 NLP论文解读 阅读(534) 评论(0) 推荐(0) 编辑