摘要: ©原创作者 | 周鹏 体验与资源链接: https://github.com/sherzod-hakimov/HASOC-2021 Hate-Speech-Detection 论文: Combining Textual Features for the Detection of Hateful an 阅读全文
posted @ 2022-02-02 12:59 NLP论文解读 阅读(625) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 疯狂的Max 01 背景 命名实体识别任务分为嵌套命名实体识别(nested NER)和普通命名实体识别(flat NER),而序列标注模型只能给一个token标注一个标签,因此对于嵌套NER任务,需要使用两个以上的序列标注模型来完成标注任务。 为了解决这一问题大部分人[1][2][ 阅读全文
posted @ 2022-02-01 19:24 NLP论文解读 阅读(800) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 苏菲 论文来源: https://aclanthology.org/2020.emnlp-main.668/ 论文题目: Text Graph Transformer for Document Classification (文本图Tranformer在文本分类中的应用) 论文作者: 阅读全文
posted @ 2022-01-31 12:36 NLP论文解读 阅读(303) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 朱林 论文解读: Contrastive Learning for Many-to-many Multilingual Neural Machine Translation 论文作者: Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li 论文地址: h 阅读全文
posted @ 2022-01-30 21:18 NLP论文解读 阅读(464) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 朱林 01 介绍 一个普通的知识图谱只拥有某一时刻的静态事实,常见表示为图的形式,如图1所示,包含了实体e(圆)及其关系r(箭头)。 图1 知识图谱示意图 目前快速增长的数据往往表现出复杂的时间动态特性,可以描述为时序知识图谱(Temporal Knowledge Graphs, T 阅读全文
posted @ 2022-01-29 20:15 NLP论文解读 阅读(761) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 |疯狂的Max ERNIE代码解读 考虑到ERNIE使用BRET作为基础模型,为了让没有基础的NLPer也能够理解代码,笔者将先为大家简略的解读BERT模型的结构,完整代码可以参见[1]。 01 BERT的结构组成 BERT的代码最主要的是由分词模块、训练数据预处理、模型结构模块等几部分 阅读全文
posted @ 2022-01-28 13:54 NLP论文解读 阅读(674) 评论(0) 推荐(0) 编辑
摘要: ©原创作者 | 杨健 论文标题: KEPLER: A unified model for knowledge embedding and pre-trained language representation 收录期刊: TACL 论文链接: https://direct.mit.edu/tacl/ 阅读全文
posted @ 2022-01-24 14:16 NLP论文解读 阅读(322) 评论(0) 推荐(0) 编辑
摘要: 论文解读:精华干货——用于常识推理的知识生成提示 阅读全文
posted @ 2022-01-17 13:26 NLP论文解读 阅读(603) 评论(1) 推荐(0) 编辑
摘要: ©原创作者 |疯狂的Max 背景及动机 大部分中文预训练模型都以单个字作为基础单元,而忽略了中文是以词语为最小语义单元的语言特性。 与英文不同,中文词语并不会以空格隔开,因此预训练模型在中文任务上都直接以单个字符来进行模型构建,但是事实上单个的中文字是带有歧义的,比如“拍”在词语“球拍”和“拍卖”中 阅读全文
posted @ 2022-01-13 14:13 NLP论文解读 阅读(387) 评论(0) 推荐(0) 编辑
摘要: ©NLP论文解读 原创•作者 |小欣 导读 本文重点对2021年KDD的一篇关于多任务学习的论文(也是美团在多任务学习领域的一个应用)《Modeling the Sequential Dependence among Audience Multi-step Conversions with Mult 阅读全文
posted @ 2022-01-12 11:37 NLP论文解读 阅读(1060) 评论(0) 推荐(0) 编辑