摘要: 论文解读:知识图谱融入预训练模型 阅读全文
posted @ 2022-01-10 19:03 NLP论文解读 阅读(551) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 | 吴雪梦Shinemon 研究方向 | 计算机视觉 导读说明 在NLP模型被建立后,如何更好的评价该模型一直以来都是被广泛讨论与关注的问题,而且评价方法不尽相同,研究人员通常会花费大量的时间提出不同的参数来评估该模型,评价指标也多元化。 现有的NLP评价指标中表现良好 阅读全文
posted @ 2022-01-05 22:37 NLP论文解读 阅读(99) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 |疯狂的Max 背景及动机 以BERT为基础的预训练模型在各项NLP任务获得巨大的成功,与此同时,如何在泛化的预训练模型基础上融入某些特定领域的知识图谱以获得在特定领域内让模型有更优秀的表现,这一课题也一直备受关注。 然而大部分之前的将知识图谱融入预训练模型的工作都是将 阅读全文
posted @ 2022-01-05 22:35 NLP论文解读 阅读(278) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 | 朱林 生活中多目标跟踪问题屡见不鲜,比如稠密人群检测、场景识别、智慧交通等场景下多目标跟踪都是避不开的话题。 解决多目标跟踪(Multi-Object Tracking, MOT)问题有两种基本范式,其一是先检测后跟踪(Tracking-by-detection, 阅读全文
posted @ 2022-01-05 22:33 NLP论文解读 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 地址:https://arxiv.org/abs/2110.08387 尽管大型语言模型能够在预训练期间捕获大量知识,但它们通常受益于整合外部知识库,尤其是在常识推理任务上。 这促使我们探索如何更好地利用从语言模型中获得的知识。作者建议使用通用提示格式直接从语言模型生成知识语句,然后选择使得预测概率 阅读全文
posted @ 2022-01-05 22:32 NLP论文解读 阅读(177) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 |杨健 论文标题: ERNIE:Enhanced Language Representation with Informative Entities 收录会议:ACL 论文链接: https://arxiv.org/abs/1905.07129 项目地址: https://gith 阅读全文
posted @ 2021-12-30 23:47 NLP论文解读 阅读(310) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 |FLIPPED 研究背景 随着计算算力的不断增加,以transformer为主要架构的预训练模型进入了百花齐放的时代。BERT、RoBERTa等模型的提出为NLP相关问题的解决提供了极大的便利,但也引发了一些新的问题。 首先这些经过海量数据训练的模型相比于一般的深度模 阅读全文
posted @ 2021-12-29 23:36 NLP论文解读 阅读(1239) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 | 杨健 1、专栏系列概览 该专栏主要介绍自然语言处理领域目前比较前沿的领域—知识增强的预训练语言模型。通过解读该主题具备代表性的论文以及对应的代码,为大家揭示当前最新的发展状况。为了能够和大家更好的分享自己的收获,笔者将遵循下面几个原则。 1、理论讲解尽量深入浅出,通 阅读全文
posted @ 2021-12-28 23:29 NLP论文解读 阅读(1091) 评论(0) 推荐(0) 编辑
摘要: 最新研究进展:关于机器翻译领域,这4个要点不得不关注 阅读全文
posted @ 2021-12-27 23:02 NLP论文解读 阅读(627) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 | 小欣 论文标题:PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction 论文链接:https://arxiv.org/pdf/2106.0 阅读全文
posted @ 2021-12-26 19:35 NLP论文解读 阅读(934) 评论(0) 推荐(0) 编辑