摘要: 论文链接:https://arxiv.org/pdf/1902.10909.pdf 这篇论文的思路非常简单,就是把BERT用来同时做意图分类和槽填充,其中[CLS]对应的隐藏状态$h_1$用来做句子分类: \[ y^i = softmax(W^ih_1+b^i) \] 同时又拿最后一层每个subwo 阅读全文
posted @ 2021-01-16 18:12 YoungF 阅读(446) 评论(0) 推荐(0) 编辑
摘要: key value 论文名称 LEX-BERT: Enhancing BERT based NER with lexicons 一作 Wei Zhu 单位 上海华东师范大学; 圣地亚哥AI4ALL 发表 ICLR 2021 领域 命名实体识别 主要贡献 提出一种将词信息融入到字嵌入的方法 基础模型 阅读全文
posted @ 2021-01-16 17:12 YoungF 阅读(1035) 评论(0) 推荐(0) 编辑
摘要: key value 名称 Pre-training with Whole Word Masking for Chinese BERT 一作 崔一鸣 单位 哈工大; 讯飞实验室 发表 技术报告 时间 2019.10 领域 预训练模型 主要贡献 将whole word masking方法用在中文预训练上 阅读全文
posted @ 2021-01-16 17:03 YoungF 阅读(1471) 评论(0) 推荐(0) 编辑