关键词检索与阅读模型

https://aclanthology.org/N19-1030/

摘要

这里介绍了一个检索器-阅读器的模型,它是专门建立在大规模文本库上的多项选择器阅读理解任务,检索器利用关键字抽取技术提高了检索结果与问题的相关性,阅读器根据检索结果,问题和选项建立了网络模型。

主要有两部分

  • 检索器

找出问题中最重要的单词,和选项一起生成query,去长文本中查询相应的片段

  • 阅读器

区分关键字和干扰字去预测答案

引言

QA面临的问题

  • 有些问题,很难在文中找相应的依据
  • 回答问题的形式是多样化的
  • 机器需要去理解很长且复杂的文本,而不是简单的匹配

解决方法

要么用整合常识,要么提高检索能力,以便更好地找到答案

方法

image-20221116191310989

阅读器

阅读器的输入是问题Q,选项\(C_{i}\)\(P_{i}\)

Input Layer

每个单词需要经历以下Embedding

Word Embedding

预训练的GloVe词嵌入,维度是300

Part-of-Speech Embedding and Named-Entity Embedding

对单词的词性和命名实体进行编码,16维的

Relation Embedding

利用大规模单词关系图ConceptNet获得文章中的每个单词与问题及选项中每个单词的关系。例如“汽车”“行驶”之间的关系就可以为“可以”"卡车"“汽车"之间的关系可以为”是一种“。然后,ET-RR建立编码字典,每种关系都有一个10维的编码,将单词w找到的关系r所对应的编码拼接在w的单词编码后,如果单词w和问题及选项中有多种的话,随机选一种

Feature Embedding

根据文章P中的单词w是否在问题和选项中出现,ET-RR给w加入了一个1维的0/1精确匹配编码,还加入了一个w出现频率的对数也作为一维编码

Attention Layer

经过上面的四个编码后,问题中所有单词的词向量矩阵\(W_{Q}\)和所有选项拼接而成的文本的向量组成的词向量矩阵\(W_{C}\),和所有文章单词的词向量矩阵\(W_{P}\)

image-20221116195752018

通过上面公式分别计算

1.文章到问题的注意力向量\(W^{Q}_{P}\)

2.选项到问题的注意力向量\(W^{Q}_{C}\)

3.选项到文章的注意力向量\(W^{P}_{C}\)

Sequence Modeling Layer

这里使用双向LSTM处理输入层和注意力层的单词表示

image-20221116200257184

Fusion Layer

问题和选项经过单词向量加权和,各自用一个向量qc来表示

image-20221116200524605

\(w_{sq}\)\(w_{sc}\)为参数向量,\(w_{e}\)向量是关键字选择器的输出,格式为

image-20221116201819231

其中\(w_{ei}\)的值的Q中第i个字是否为关键字,1为是,0为不是

Choice Interaction

\(H^{C_n}\)(\(H^{C}\)中最后一个隐藏状态)和每一个隐藏状态\(H^{C_i}\),通过下面公式

image-20221116203440814

然后拼接

image-20221116203533711

Output Layer

输入为

image-20221117084918027

输出为

image-20221117084940593

检索器

image-20221117085108165

通过上图可以看出有检索器的话,查找依据就准确很多

给定问题Q和N个选项\(C_{i},..,C_{N}\),就是想预测\(Q_{i}\)是否为关键字,1代表是,0代表不是。

image-20221117085540259

检索器的结构和阅读器的结构差不多,QC经过输入层获得了嵌入矩阵表示后,然后经过注意力层计算带有选项感知的问题表示\(W^{C}_{Q}\)

然后送入到序列模型层得到

image-20221117090221325

然后就计算y

image-20221117100153853

image-20221117100425523

image-20221117100441949

posted @ 2022-11-17 18:56  放学别跑啊  阅读(94)  评论(0编辑  收藏  举报