摘要: 1.通用语言理解评估GLUE GLUE是一个用于评估通用 NLP 模型的基准,基于在多种不同语言理解任务集上的评估。 下面选自《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》: The 阅读全文
posted @ 2020-06-14 20:46 西伯尔 阅读(1069) 评论(0) 推荐(0) 编辑
摘要: 构建知识图谱,我们需要先实现实体、关系、属性提取。 实体抽取,即NER(Name Entity Recognition),命名实体识别。 关系抽取,即RE(Relation Extraction)。这里可以考虑用BERT试试?序列标注的情况,输入一个句子,输出每个单词的类别。 属性抽取, 可视化,N 阅读全文
posted @ 2020-06-14 15:04 西伯尔 阅读(2640) 评论(0) 推荐(0) 编辑
摘要: 先回到2003年的神经网络语言模型NNLM(Neural Network Language Model)。 Bengjo在《A Neural Probabilistic Language Model》提出了神经概率语言模型NPLM,NNLM思想来源于该论文。 参考: https://blog.csd 阅读全文
posted @ 2020-06-14 02:05 西伯尔 阅读(634) 评论(0) 推荐(0) 编辑
摘要: 导论 自然语言处理,NLP,接下来的几篇博客将从四方面来展开: (一)基本概念和基础知识 (二)嵌入Embedding (三)Text classification (四)Language Models (五)Seq2seq/Transformer/BERT (六)Expectation-Maxim 阅读全文
posted @ 2020-06-14 00:34 西伯尔 阅读(415) 评论(0) 推荐(0) 编辑