End-to-End Answer Chunk Extraction and Ranking for Reading Comprehension

论文摘要

论文目的

This paper proposes dynamic chunk reader (DCR), an end-to-end neural reading comprehension (RC) model that is able to extract and rank a set of answer candidates from a given document to answer questions.
这篇文章提出了一种端对端的神经网络阅读理解模型--动态块阅读器,能够从文档中提取候选答案并对答案进行排序。

模型概述

dataset: Stanford Question Answering Dataset (SQuAD) which contains a variety of human-generated factoid and non-factoid questions, have shown the effectiveness of above three contributions.
DCR encodes a document and an input question with recurrent neural networks, and then applies a word-by-word attention mechanism to acquire question-aware representations for the document, followed by the generation of chunk representations and a ranking module to propose the top-ranked chunk as the answer.
DCR用RNN对文章和问题进行编码,然后应用word-by-word的注意力机制来获取问题敏感的文档表达,接下用生成答案的块表达,最后用一个排序模块选择得分最高的答案作为最终结果。

结果

DCR achieves state-of-the-art exact match and F1 scores on the SQuAD dataset.
实验结果表明,DCR在SQuAD数据集上EM值和F1值都达到了理想的结果。

研究背景

** Reading comprehension-based question answering (RCQA)**
基于阅读理解的问答研究

  • The task of answering a question with a chunk of text taken from related document(s).
    任务是从相关文档中提取一段文本作为答案。
  • In previous models, an answer boundary is either easy to determine or already given.
    在之前的提出的模型中,问题答案或者容易确定,或者已经给定。
  • In the real-world QA scenario, people may ask questions about both entities (factoid) and non-entities such as explanations and reasons (non-factoid)
    在现实世界的QA场景中,问题的形式既有关于实体的(factoid),又有非实体的(non-factoid),比如寻求解释或者原因(non-factoid)。

问题类型:factoid&non-factoid###

Q1和 Q2属于factoid类型的问题,Q3属于non-factoid类型的问题


Paste_Image.png

** Dynamic chunk reader **

  • uses deep networks to learn better representations for candidate answer chunks, instead of using fixed feature representations
    Second
    用深度网络学习候选答案更好的表达
  • it represents answer candidates as chunks, instead of word-level representations
    候选答案是基于块表达,而不是词表达。

** Contributions**
three-fold

  • propose a novel neural network model for joint candidate answer chunking and ranking.
    论文提出一个新的神经网络模型以结合候选答案块和排序,答案以一种端对端的形式构建和排序。
    In this model the candidate answer chunks are dynamically constructed and ranked in an end-to-end manner
  • propose a new ** question-attention mechanism ** to enhance passage word representation used to construct chunk representations.
    提出了一种新的问题-注意力机制来加强段落中词语表达,用来构建块表达
  • propose several simple but effective features to strengthen the attention mechanism, which fundamentally improves candidate ranking。
    提出了几种简单但有效的特征来增强注意力机制,这种做法能从根本上排序部分的准确性。

论文要点

问题定义

基于一个段落P,通过选择一个句子A,回答一个事实型的或者非事实型的问题Q。
Q,P,A都是句子序列,共用一个词汇表V。
训练集的组成为三元组(P,Q,A)
RC任务类型:
quiz-style,MovieQA:问题有多个选项
Cloze-style:通常通过代替在句子中的空格来自动生成答案。
answer selection:从文本中选择一部分作为答案。
TREC-QA:从给定的多个段落文本中提起factoid答案
bAbI::推断意图
SQuAD数据集:满足事实型和非事实型的答案提取,更接近于现实世界

Baseline: Chunk-and-Rank Pipeline with Neural RC

for cloze-style tasks
修改了一个用于cloze-style tasks的最好的模型,用于这篇文章的答案提取。
It has two main components: 1)

  • Answer Chunking: a standalone answer chunker, which is trained to produce overlapping candidate chunks,
  • Feature Extraction and Ranking:a neural RC model, which is used to score each word in a given passage to be used thereafter for generating chunk scores.
    1)独立的答案区块,被训练以生成重叠候选区块;2)一个神经RC模型,被用来给文章中的每个词进行打分。具体解释如下:

DCR

Paste_Image.png

DCR works in four steps:

  • First, the encoder layer encode passage and question separately, by using bidirectional recurrent neural networks (RNN).
    编码层:应用bi-directional RNN encoder 对文章Pi 问题 Qi 进行编码,得到每一个词的隐藏状态。
  • Second, the attention layer calculates the relevance of each passage word to the question.word-by-word style attention methods
    注意力层:应用word-by-word的注意力机制,计算段落中的每个单词到问题的相关度
  • Third, the chunk representation layer dynamically extracts the candidate chunks from the given passage, and create chunk representation that encodes the contextual information of each chunk.
    在得到attention layer的输出后,块表示层能动态生成一个候选答案块表示。首先是确定候选答案块的边界,然后找到一种方式pooling
  • Fourth, the ranker layer scores the relevance between the representations of a chunk and the given question, and ranks all candidate chunks using a softmax layer.
    排序层:计算每一个答案和问题的相关度(余弦相似性),用一个softmax 层对候选答案进行排序。

实验

Stanford Question Answering

Dataset (SQuAD)
特点:包含了factoid和non-factoid questions
100k 的来自维基百科的536篇文章的问题-文章对

input word vector:5个部分

  1. a pre-trained 300-dimensional GloVe embedding
  • a one-hot encoding (46 dimensions) for the part-of-speech (POS) tag of w;
    一个46维的one-hot向量,用来表示词语的词性
  • a one-hot encoding (14 dimensions) for named entity (NE) tag of w;
    一个14维的one-hot 向量 ,用来小时词语的命名实体属性
  • a binary value indicating whether w’s surface form is the same to any word in the quesiton;
    一个二元值,表征一个词语的表面形式是否与问题的其他词语相同
  • if the lemma form of w is the same to any word in the question;

训练

We pre-processed the SQuAD dataset using Stanford CoreNLP tool5 (Manning et al.2014) with its default setting to tokenize the text and obtainthe POS and NE annotations.
用 Stanford CoreNLP tool5这个工具对SQuAD 数据集进行预处理
To train our model, we used stochastic gradient descent with the ADAM optimizer

实验结果

Paste_Image.png

We also studied how each component in our model contributes to the overall performance.


Paste_Image.png

总结

在解决QA问题上,之前提出的模型都只针对factoid questions:或者预测单个命名实体作为答案,或者从预先定义的候选列表中选择一个答案。
本论文论文针对QA问题提出了一种新型的神经阅读理解模型。模型创新点在于:
提出了一个联合神经网络模型,并用一个新型的注意力模型和5个特征来加强,既可以针对factoid questions,也可以针对non-factoid questions。
不足:在预测长答案上仍然需要改进。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容