Multi HopRC Save

:notebook_with_decorative_cover: notes for Multi-hop Reading Comprehension and open-domain question answering

Project README

多跳阅读理解相关论文

目录

综述

序号 论文 发表会议 备注
1 Natural Language QA Approaches using Reasoning with External Knowledge arXiv 2020 是一篇Survey,总结了现有的利用外部知识完成QA的方法,包括数据集的整理,常用的外部知识整理还有使用外部知识的一些常用方法。知识方面,无结构知识:Wikipedia CorpusTorontoBookCorpusARC CorpusWikiHowRocStoriesStory Cloze等,结构化知识:YagoNELLDBPediaConceptNetWordNet。对于无结构知识,可以考虑利用记忆网络来存储知识,对于结构化知识可以考虑利用GNN或Tree-based LSTM来存储知识。
2 NeurIPS 2020 EfficientQA Competition: Systems, Analyses and Lessons Learned arXiv 2021 [TODO]
3 Conversational Question Answering: A Survey arXiv 2021 CQA Survey,研究方向由单轮对话QA转换为多轮对话QA,第四章介绍了对话MRC任务,第五章介绍了相关数据集(其中5.2介绍了对话MRC相关数据集,主要有CoQAQuAC)。
4 A Survey on Multi-hop Question Answering and Generation arXiv 2022 MHQA Survey

工具

序号 论文 发表会议 备注
1 SF-QA: Simple and Fair Evaluation Library for Open-domain Question Answering arXiv 2021 repo

1.数据集

序号 论文 发表会议 备注
1 HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering EMNLP 2018 HotpotQA 抽取式 每个QA对有10个(distractor setting)或百万级(full wiki setting)对应的paragraph
2 Constructing Datasets for Multi-hop Reading Comprehension Across Documents TACL 2018 WikihopMedHop 多选式 每个QA对有数量不等(平均14,最多64)个对应的paragraph,还有候选答案集合
3 Can a Suit of Armor Conduct Electricity? A New Dataset for Open Book Question Answering EMNLP 2018 OpenBookQA CommonQA 多选式 包含了两部分5957个多选问题(每题四个选项),1326个初级科学事实。科学事实通常不能够直接回答问题,对于一个问题,应当先检索相关的科学事实,然后加上常识(不在本数据集中提供,通常用ConceptNet)才能得到答案。需要多跳推理,也需要常识推理。
4 The NarrativeQA Reading Comprehension Challenge TACL 2018 NarrativeQA 包含来自于书本和电影剧本的1567个完整故事,数据集划分为不重叠的训练、验证和测试三个部分,共有 46765个问题答案对
5 Reasoning Over Paragraph Effects in Situations EMNLP MRQA Workshop 2019 ROPES 抽取式 每个QA对对应两个paragraph,一个称为background是说明文,另一个是situation由众包工人创建,回答问题需要把background中的知识应用与situation才可
6 DROP: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs NAACL 2019 DROP 答案不一定出现在原文中 需要通过计算、计数等操作得到 每个QA对都有一个对应的paragraph
7 DREAM: A Challenge Data Set and Models for Dialogue-Based Reading Comprehension TACL 2019 Dream 多选式 10197个问题,并在英语考试题中收集6444个多轮多方的对话数据。多个选择题对应一个多轮多方对话数据,只有一个候选答案正确
8 Looking Beyond the Surface: A Challenge Set for Reading Comprehension over Multiple Sentences NAACL 2018 MultiRC 多选式 每个实例包含一个问题,多个sentences以及答案候选集,根据sentences去选择正确的答案,且可能有多个候选答案正确,每个实例的候选答案数量不一定一致
9 R4C: A Benchmark for Evaluating RC Systems to Get the Right Answer for the Right Reason ACL 2020 R4C 给出半结构化的derivationHotpotQA数据集进行了标注,一共标注了约5K个实例,每个实例被标注了三个derivationR4C觉得Supporting Sentence是一个非常粗粒度的概念,因为一句Supporting Sentence里面可能有些内容并不是推理答案所必须的,而另一部分是必须的,因此作者标注了更加细粒度的derivation,这是一种半结构化的形式来表达推理信息,比Supporting Sentences更加有挑战性,也对模型的可解释性要求更高。
10 QASC:A dataset for question answering via sentence composition AAAI 2020 QASC 多选式 也是基于多个句子间的推理从候选答案中选出正确答案的数据集。含有9980个八项选择题,每个问题都被标注了两个fact sentences用来推理出最终的答案。还提供了一个包含了17M个句子的语料库,所有的fact sentences都在里面
11 Learning to Explain: Datasets and Models for Identifying Valid Reasoning Chains in Multihop Question-Answering EMNLP 2020 eQASCeQASC-perturbed以及eOBQA Textual entailment 多选式 这个工作其实是在研究多跳推理问题的可解释性。在QASC数据集的基础上,针对于每个问题又标注了多个推理链(有效或无效都有)构成了eQASC,接着又将推理链模板化(使推理链更加通用)构成了eQASC-perturbed数据集,最后为了进行out-domain test,也基于OpenBookQA数据集标注了推理链形成了eOBQA并进行测试
12 AmbigQA: Answering Ambiguous Open-domain Questions EMNLP 2020 提出了AmbigQA任务,并标注了AmbigNQ数据集,现有的QA任务里面有些问题存在着模棱两可的答案,AimbigQA任务就是需要模型对一个问题能够回答出所有的正确答案(正确答案的个数不限),并根据所有可能的正确答案来进一步输出无歧义的问题。
13 HybridQA: A Dataset of Multi-Hop Question Answering over Tabular and Textual Data EMNLP 2020 Findings [TODO] 在文本与表格上共同进行多跳推理
14 WorldTree V2: A Corpus of Science-Domain Structured Explanations and Inference Patterns supporting Multi-Hop Inference LREC 2020 [TODO]
15 Did Aristotle Use a Laptop? A Question Answering Benchmark with Implicit Reasoning Strategies TACL 2021 StrategyQA 布尔式 2780个隐式多跳推理问题,推理步数不局限于二跳,问题极为精简,模型需要先推断出推理策略,进而才能求解。在检索支撑文档方面也非常有挑战,因为问题本身与文档间的词汇overlap极低。
16 VisualMRC: Machine Reading Comprehension on Document Images AAAI 2021 -
17 MultiModalQA: Complex Question Answering over Text, Tables and Images ICLR 2021 -
18 SpartQA: A Textual Question Answering Benchmark for Spatial Reasoning NAACL 2021 强调空间推理,与DocRed类似,数据集分为两部分:SpartQA-HumanSpartQA-Auto
19 GooAQ: Open Question Answering with Diverse Answer Types arXiv 2021 一个问题考虑多个类型的答案
20 InfographicVQA arXiv 2021 感觉和VisualMRC挺像的
21 ExpMRC arXiv 2021 可解释性研究,给SQuAD(英)、CMRC 2018(中)、RACE+(英)、C3(中)数据集标注了支撑句。
22 QASPER NAACL 2021 QASPER数据集共包含5049个问题与1585篇NLP论文。每个问题是一名研究员看了论文的题目和摘要而提出来的,答案和支撑文段由另一名研究员在论文的剩余部分找到,一定有答案。需要文档间的推理才能正确回答问题。
23 QAConv arXiv 2021 QAConv数据集包含10259场对话,34204个QA对。对话数据较长,最多一个包含了19917个单词(32个speakers),该数据集约有5%的问题不能够被回答。问题需要推理,一部分问题是QG生成的,一部分是众包标的。
24 CoSQA ACL 2021 CosQA是一个代码问答数据集,有20604个查询-代码对

2.改进传统单步阅读理解方法

序号 论文 发表会议 备注
1 A Simple Yet Strong Pipeline for HotpotQA arXiv 2020 一种非常简单的方法但达到了非常不错的效果,值得思考

3.利用GNN进行多跳推理

一般使用GNN的框架是:段落选取→编码→建图→利用GNN-based算法更新表示→答案预测。这类方法使用强大的图结构作为支撑,只经历了一次段落选取步骤,优点是对第一步检索的要求不高,缺点是可解释性非常差。

序号 论文 发表会议 备注
1* Multi-hop Reading Comprehension across Multiple Documents by Reasoning over Heterogeneous Graphs ACL 2019 non-Open 提出了HDE(Heterogeneous Document-Entity)图,图上包含了三类结点:文档结点、候选答案结点以及从文档中抽取的实体mention结点。这些结点的表示通过co-attention以及self-attentive pooling得到,在这些结点中又定义了7类边,例如:如果候选答案在某文档中出现了至少一次,那么该候选答案结点与文档结点相连。之后使用GNN-based表示更新算法为每个结点更新表示,最后由候选答案结点以及该候选答案中出现的实体mention结点共同为该候选答案进行打分。
2* Dynamically fused graph network for multi-hop reasoning ACL 2019 non-Open DFGN
3* Identifying Supporting Facts for Multi-hop Question Answering with Document Graph Networks EMNLP 2019 HotpotQA 构建了DGN(Document Graph Network)并在上面传递信息以及识别supporting fact。Document Grpah包含两类结点:段落结点以及句子结点。以及两类边:如果句子存在于某文档中,则该句子结点与文档结点相连。如果一个文档中的实体被另一个文档所引用,则这两个文档之间相连。(注意没有句子与句子之间的边,因为会大大增加模型的复杂度且带来不了显著提升)。在构建Document Graph之后有一个过滤的步骤,根据问题,对所有段落中的每句话去计算其与问题的相似度。最终选取topk个句子。这些句子与文档之间构成原先Document Graph中的一个子图。然后结点的表示与问题的表示进行Bi-Linear AttentionSelf-Attention得到结点的初始化表示,之后利用GNN系列算法更新表示,最终对句子结点进行supporting fact的预测。
4* BAG: Bi-directional Attention Entity Graph Convolutional Network for Multi-hop Reasoning Question Answering NAACL 2019 non-Open Wikihop 建立了一个比较简单的图,图上的结点都是实体结点,共有两类边:不同段落间相同实体之间的边以及同一段落任意两个实体结点之间也存在一条边。之后使用GloveELMoNER以及POS来做特征的初始化,然后使用GCN去更新表示,最后对每一个实体结点进行其为答案的概率预测。
5* Multi-paragraph reasoning with knowledge-enhanced graph neural network arXiv 2019 Open&no-Open 主要贡献在于,从paragraphs上建立了一个KG,然后利用GNN更新结点表示,结点表示更新之后返回来更新paragraphs的表示,最后进行答案预测
6* Hierarchical Graph Network for Multi-hop Question Answering EMNLP 2020 构建了一个异质图包含四类结点和七类边,利用GNN来进行多跳推理
7 Is Graph Structure Necessary for Multi-hop Question Answering? EMNLP 2020 non-Open 改进了DFGN模型,探索了图结构在多跳QA中是否必要,结论是:如果PTM是特征提取器的话就重要,如果微调PTM的话其实图结构不是很重要
8* Select, Answer and Explain: Interpretable Multi-hop Reading Comprehension over Multiple Documents AAAI 2020 non-Open SAE

(*代表仅属于本分类下的工作)

4.迭代式检索文档

多次检索文档,可解释性优于GNN-based models。其中PullNet也使用到了GNN算法。这里的分类认为:多次检索文档,需要不断更新query然后以此来不断地进行迭代式检测。注意这种方法包括两大流派:生成推理链以及分解问题,这两个流派将在之后阐述,先介绍迭代式检索文档中不属于这两个流派的工作。

序号 论文 发表会议 备注
1 Explore, Propose, and Assemble: An Interpretable Model for Multi-Hop Reading Comprehension ACL 2019 分为三部分,三部分联合优化。Document Explore:一个级联的memory network迭代式地选取相关文档;Answer Proposer:对于推理树上的每一个从跟到结点的推理路径提出一个proposed答案;Evidence Assembler:从每一条推理路径上提取包含proposed答案的关键句,并将这些关键句结合起来以预测最终的答案。
2 Multi-Hop Paragraph Retrieval for Open-Domain Question Answering ACL 2019 Open 主要在开放式的多跳QA中做检索方面的迭代式探索尝试,提出了MUPPET(MUlti-hoP Paragraph rETrieval),共有两个模块组成:段落和问题编码器以及段落阅读器。编码器负责获取段落的表示以及将问题编码成搜索向量,阅读器通过搜索向量基于最大化内积的方法检索相关度高的段落。在每次迭代中,搜索向量会由前几步检索得到的文档的表示所影响,所以每次迭代中的搜索向量不一样,因此才能迭代式地检索到不同的段落。
3 Revealing the Importance of Semantic Retrieval for Machine Reading at Scale EMNLP 2019 Open 只用原始问题检索了一次文档,但在这一次检索中,先利用了基于TFIDF的方法筛选一遍,然后对于每个paragraph又通过语义相似度计算再筛选一遍,然后将还剩下的paragraph分解成句子,再在句子级别利用语义相似度计算得到最终所有的支撑句。最终利用支撑句和问题进行答案预测。虽然只检索了一次,但其实在第一次的基础上进行了后续的多次筛选与更加细粒度的检索。
4 Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop Question Answering ACL 2020 Open&non-OpenMultiRC以及QASC上的工作,做与问题相关的支撑句的检索。采用无监督的对其方法。每次检索会修改query,修改的规则主要是当前检索到的句子没有包含query中的那些terms,检索也使用了基本的基于词向量语义相似度的方式,属于无监督模型。但达到了很好的效果。
5 Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval arXiv 2020 Open 没啥感觉,把检索文档看成序列建模问题然后beam search
6 DDRQA: Dynamic Document Reranking for Open-domain Multi-hop Question Answering arXiv 2020 Open 动态检索文档,只有最终确定的才进入到下一步
7 Memory Augmented Sequential Paragraph Retrieval for Multi-hop Question Answering arXiv 2021 迭代式的检索文档,以往主流的方法将paras建模成一个图结构,para之间的连线依赖于超链接或para之间的共享实体。本文提出了一个新的检索方式,将para看成一种序列数据,并且将检索文档看成序列标注问题。最终在HotpotQA数据集上取得了不错的效果,distractor setting下达到了69.6EM
8 Efficient Passage Retrieval with Hashing for Open-domain Question Answering ACL 2021 short 文档检索工作,在DPR的基础上提出了BPR,利用二分编码来降低内存的使用,在用BERT得到编码后的问题和段落表示后,通过一层哈希层来得到二分编码,并基于二分编码做相似度计算。设定了两个任务来训练BPR分别是候选生成和候选排序,其中候选生成用二分编码做,候选排序用连续向量做。

5.推理链

最终形成一条推理链。

序号 论文 发表会议 备注
1 Exploiting Explicit Paths for Multi-hop Reading Comprehension ACL 2019 WikihopOpenBookQA Open&non-Open 这篇工作主要的贡献在于多跳阅读理解的可解释性,为了在文本数据上达到多跳的效果,会有两种方法:GNN或者路径抽取,GNN可解释性非常差,因为它是隐式地完成信息传递。而路径抽取的方法解释性强,但如果跳数增多的话会有语义漂移问题。不过Wikihop或者OpenBookQA数据集都是两跳,所以好像不严重?然后作者就通过在问题中提取头实体,在候选答案中提取尾实体,然后在全部候选文档中抽取多个推理链,接着对推理链的实体做表示初始化然后隐式提取关系,再通过关系计算路径的表示。最后会对路径进行打分,然后根据分数得到最终的答案概率分布。我个人觉得这篇工作利用两个实体的表示去直接计算他们的关系表示这里有点粗糙了,因为两个实体之间可能存在着不止一种关系,而利用作者所给的式子则无法对这种多样的关系进行学习。
2 Cognitive Graph for Multi-Hop Reading Comprehension at Scale ACL 2019 Open 就CogQA
3 Multi-step Entity-centric Information Retrieval for Multi-Hop Question Answering EMNLP 2019 也是在检索文档上做了探索。从第一次检索到的文档上分析并利用其中的实体信息进行后续的多跳分析。
4 Simple yet Effective Bridge Reasoning for Open-Domain Multi-Hop Question Answering EMNLP 2019 Open&non-Open 在短视检索上进行探索的工作,Bridge Reasoner输入的是开始文档(通过IR得到),然后进行span预测,预测出桥梁实体,进而再产生候选答案段落,Passage Reader提取最终答案。
5 PullNet: Open Domain Question Answering with Iterative Retrieval on Knowledge Bases and Text EMNLP 2019 MetaQAWebQuestionsSP以及Complex WebQ Open 从两种实体源中检索知识资源:文本语料库与知识库。作者定义了问题子图(question subgraph)这一概念,它的作用是包含足够多的与问题相关的信息然后以此来回答一个问题,该图是迭代生成的,且分为三类结点:①实体结点(存在于KB中)②文本结点(通常情况下是文本语料库中某个实体的mention)③事实结点(KB中的事实三元组)。一开始先仅利用问题中的信息来初始化问题子图,之后进行T轮迭代扩充,每次扩充会选取问题子图中的部分结点,对每一个选取到的结点,为其检索其相关的(1)文档(2)事实,对于(1)还会进一步利用实体链接模型提取其中的实体mention,对于(2)来说会提取三元组中的头尾实体。这样的构建直到问题子图可以回答问题为止,之后再进行答案预测。
6 Answering Complex Open-domain Questions Through Iterative Query Generation EMNLP 2019 Open GOLDEN模型
7 Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering ICLR 2020 Open 不断检索文档,在整个wikipedia的文章上建立了一个图,然后一直跳
8 Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval NAACL 2021 BeamDR 在dense representation上逐渐组成推理链,并且不使用wiki中的结构化超链接信息,在每一步中会更新query表示。

6.分解问题相关

可解释性也很强,但是分解问题需要额外的工作,如何训练模型合适地分解问题是一个challenge。

序号 论文 发表会议 备注
1 The Web as a Knowledge-Base for Answering Complex Questions NAACL 2018 大概看了一下,觉得论述在英文方面表述的很奇怪,在민세원的论文中(该表格的下一项论文)本篇作为引文举出,被阐述了主要区别。
2 Multi-hop Reading Comprehension through Question Decomposition and Rescoring ACL 2019 민세원女神的paper,不多说了,膜就完事了。
3 Complex question decomposition for semantic parsing ACL 2019 虽然不是阅读理解上的,但也是分解问题的工作
4 Learning to Order Sub-questions for Complex Question Answering arXiv 2019 利用强化学习去选择最优的子问题回答顺序来得到最终答案
5 Unsupervised Question Decomposition for Question Answering EMNLP 2020 定义了一种无监督的方法来分解出子问题
6 Break it down: A question understanding benchmark TACL 2020 从10个复杂问题的QA数据集中提取问题并标注分解,一共定义了13个基本分解操作,以及3个高级分解。提出了BREAK数据集,包含了83978个复杂问题及其对应的分解。又提出了BreakRC模型,将考虑问题分解应用于HotpotQA(fullwiki setting)中
7 Generating Followup Questions for Interpretable Multi-hop Question Answering arXiv 2020 non-Open 也是分解问题的工作,但感觉有点简单?

7.Neural Module Networks

最先在VQA中使用,后也引用至多跳阅读理解领域,肥肠复杂,因为要定义好肥肠多的模组功能以及每个模组分别在什么场景下出现。

序号 论文 发表会议 备注 repo
1 Deep Compositional Question Answering with Neural Module Networks CVPR 2016 NMN鼻祖,在VQA中定义了多个模组来完成不同的操作:Attention定位图像中某Obj的位置 Re-attention在att map上进行位置迁移等等
2 Learning to Compose Neural Networks for Question Answering NAACL 2016
3 Learning to Reason: End-to-End Module Networks for Visual Question Answering ICCV 2017 N2NMN
4 Inferring and Executing Programs for Visual Reasoning ICCV 2017 PG+EE
5 Using Syntax to Ground Referring Expressions in Natural Images AAAI 2018 GroundNet
6 Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning CVPR 2018 TbD
7 Explainable neural computation via stack neural module networks ECCV 2018 use continuous and soft layout prediction and maintain a differentiable stack-based data structure to store the predicted modules’ output. This approach to optimize the modular network is shown to be superior to using a Reinforcement Learning approach which makes hard module decisions. repo
8 Neural Compositional Denotational Semantics for Question Answering EMNLP 2018
9 Routing Networks: Adaptive Selection of Non-Linear Functions for Multi-Task Learning ICLR 2018
10 Modular Networks: Learning to Decompose Neural Computation NIPS 2018
11 Self-assembling modular networks for interpretable multi-hop reasoning EMNLP 2019 non-OpenHotpotQA上的工作,入栈出栈,三个模组FindRelocate以及Compare repo
12 Explore, Propose, and Assemble: An Interpretable Model for Multi-Hop Reading Comprehension ACL 2019 分为三部分,三部分联合优化。Document Explore:一个级联的memory network迭代式地选取相关文档;Answer Proposer:对于推理树上的每一个从跟到结点的推理路径提出一个proposed答案;Evidence Assembler:从每一条推理路径上提取包含proposed答案的关键句,并将这些关键句结合起来以预测最终的答案。
13 Multi-Step Inference for Reasoning Over Paragraphs EMNLP 2020 non-OpenROPES上进行了验证,设计了三个模组:SelectChain以及Predict,最后对candidate span进行了rerank
14 Neural module networks for reasoning over text ICLR 2020 non-Open NMN在DROP上的工作,设计了10个模组
15 Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models arXiv 2020 non-OpenDROPHotpotQA上均进行了验证,是一个通用的分解复杂问题的框架,分为两个模组next-question generatorQA model,其核心在于next-question generator,为了训练next-question generator,在SQUAD上训练一个问题生成器,输入context、answer(以及词汇提示集合)来生成question,接着对于目标数据集的训练集,利用一些规则的方法捕获hint(子问题答案),接着利用问题生成器产生多个子问题,除此之外还有剪枝步骤。若已经训练好nqg,之后对于一个问题,不断利用nqg以及现有的简单QA模型交互来逐步推理出最终的答案,在每一步子问题生成时,使用了nucleus sampling技术采样多个生成的问题,依次建模成一个有向图结构,最终会对图中每一条路径进行打分,分数最高的路径所对应的答案为最终答案,中间的trick非常多。

8.针对于多跳MRC问题的PTM改进

序号 论文 发表会议 备注
1 Transformer-XH: Multi-hop question answering with eXtra Hop attention ICLR 2020 让transformer在图结构上也进行学习,评分686
2 CogLTX: Applying BERT to Long Texts NIPS 2020 在长文本上应用BERT,并且使得BERT有一定的推理能力,重点句迭代选取最后保留对于当前任务最相关的句子,进行下一轮计算。
3 Pre-training Text-to-Text Transformers for Concept-centric Common Sense ICLR 2021 T5模型基础上附加常识(concept)感知能力。提出了两个生成式的预训练任务和一个判别式的预训练任务:(1)C2S:给定一个无序的concept(通过POS抽取一个句子中的名词、动词得到)集合,让模型还原原本的句子,该任务使得模型需要感知到不同concept之间的关系。(2)COR:打乱一句话当中的concept字段的顺序,让模型恢复原有顺序。(3)GenerativeQA:输入两句话判断哪句话更符合常识。这三个预训练任务还设定了一个联合训练的流程。最终预训练好的large模型用于OBQA任务可以达到66的acc。
4 Hi-Transformer: Hierarchical Interactive Transformer for Efficient and Effective Long Document Modeling ACL 2021 short 提出了Hi-Transformer模型,对于长文档先进行句子编码,再利用句子表示获得文档表示,接着反过来利用文档表示去增强句子表示,最后利用增强后的句子表示获得整个文档的表示。在AmazonIMDB以及MIND数据集上的效果优于Longformer

9.数据增强

序号 论文 发表会议 备注
1 Avoiding Reasoning Shortcuts: Adversarial Evaluation, Training, and Model Development for Multi-Hop QA ACL 2019 non-Open 这篇文章也揭示了HotpotQA数据集有些问题不用推理也能回答,他们设置了攻击实验,发现在对抗数据集(通过在答案区间以及支撑文档的标题上进行短语级别的干扰得到,这样模型如果还是是用推理捷径的话将会得到多个可能的答案,从而影响模型的表现)上现有的SOTA模型表现都会下降很多,除此之外他们设计了一个控制单元来指导模型进行多跳推理。
2* Low-Resource Generation of Multi-hop Reasoning Questions ACL 2020 QG工作
3* Logic-Guided Data Augmentation and Regularization for Consistent Question Answering ACL 2020 讨论核心点是对比问题的数据增强,基于对称一致性和传递一致性来增强训练样本
4* Generating Multi-hop Reasoning Questions to Improve Machine Reading Comprehension WWW 2020 QG工作
5* Asking Complex Questions with Multi-hop Answer-focused Reasoning arXiv 2020 QG工作
6* Improving Commonsense Causal Reasoning by Adversarial Training and Data Augmentation arXiv 2021
7* Unsupervised Multi-hop Question Answering by Question Generation NAACL 2021 无监督多跳问答数据增强工作

(*代表仅属于本分类下的工作)

10.在本质方面的探索&鲁棒性思考

序号 论文 发表会议 备注
1 Compositional Questions Do Not Necessitate Multi-hop Reasoning ACL 2019(short) 作者发现hotpotQA中许多多跳问题都能够被单跳模型回答正确,于是展开了分析
2 Avoiding Reasoning Shortcuts: Adversarial Evaluation, Training, and Model Development for Multi-Hop QA ACL 2019 non-Open 这篇文章也揭示了HotpotQA数据集有些问题不用推理也能回答,他们设置了攻击实验,发现在对抗数据集(通过在答案区间以及支撑文档的标题上进行短语级别的干扰得到,这样模型如果还是是用推理捷径的话将会得到多个可能的答案,从而影响模型的表现)上现有的SOTA模型表现都会下降很多,除此之外他们设计了一个控制单元来指导模型进行多跳推理。
3 Do Multi-hop Readers Dream of Reasoning Chains? EMNLP 2019 个人觉得这篇其实没有NAACL 2019那篇那么精彩,但也是不错的,作者也是做了一些分析实验,然后得出结论:一些单跳模型在面对HotpotQA问题也能做的还不错,然后推理链其实是有用的,但现在没有被挖掘的很深入,未来可能会有大用处。
4 Understanding dataset design choices for multi-hop reasoning NAACL 2019 非常棒的一个工作,精彩精彩。在HotpotQAWikihop数据集上展开研究,发现多跳阅读理解数据集单跳也能回答对,Wikihop不看文章也能答对,Span式的多跳数据集优于多选式的,即使Span式的数据集中有很多问题单跳也能答对
5 Is Graph Structure Necessary for Multi-hop Question Answering? EMNLP 2020 non-Open 改进了DFGN模型,探索了图结构在多跳QA中是否必要,结论是:如果PTM是特征提取器的话就重要,如果微调PTM的话其实图结构不是很重要
6 Is Multihop QA in DiRe Condition? Measuring and Reducing Disconnected Reasoning EMNLP 2020 HotpotQA上的一个研究,也是探索了当前多跳模型到底有没有推理能力。作者将推理分为连贯推理(connected resoning)与不连贯推理。连贯推理是我们希望能够赋予模型的能力,也就是在多个文档中进行信息间的交互以此得到答案。而不连贯推理则是不交互信息就得到答案。作者设计了一些实验去探索模型通过不连贯推理所能达到的分数以此来说明现有的模型可能并没有达到我们想要赋予他们多跳推理能力的初衷。除此之外,作者还设计了一种方案将数据集进行转换以此让模型更难cheat。该工作有着非常高的借鉴价值。对于模型设计者来说,可以帮助我们鉴别自己设计的模型到底有没有连贯推理,对于数据集制造者来说,可以让其明白自己的数据集容不容易被cheat
7 Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions? arXiv 2020 研究问题:多跳QA系统能否回答单跳子问题;除此之外引用了DecompRC中划分子问题的方法
8 On the Efficacy of Adversarial Data Collection for Question Answering: Results from a Large-Scale Randomized Study ACL 2021 鲁棒性思考工作,重要结论:(1)只在大规模对抗样本上训练出的模型在对抗测试集上的效果表现得好,但泛化性能比较差(没有在标准数据集上训练出的模型在Out-of-domain场景下表现好);(2)人工构建对抗样本的时候,许多劳动力都用在了如何fool模型,这是不对的。
9 Why Machine Reading Comprehension Models Learn Shortcuts? ACL 2021 Findings 以往很多工作都发现了模型在数据集上往往学习到的是捷径而不是复杂的解题思路,本文更深层次的关注为什么会出现这种现象,具体地,本文标了两个数据集,QWM-paraSpM-para,这两个数据集分别对应了两种常见的捷径,并且每个para-question对提供了一个捷径版的question,与一个非捷径版的question。在这两个数据集上进行深入研究,作者发现如果一个数据集的大部分sample都是可以捷径的sample,那么会趋势模型在训练早期阶段先学习这种捷径而不是复杂的推理过程。
10 Can Generative Pre-trained Language Models Serve as Knowledge Bases for Closed-book QA? ACL 2021 利用生成式的预训练语言模型BART来做闭卷问答(只给问题和答案,没有上下文),发现(1)BART会随着看过的知识的增加,而遗忘学到过的知识。(2)BART很难把自己学到过的知识用在下游QA任务中。除此之外,作者提出了一些小技巧来缓解上述问题。
11 Robustifying Multi-hop QA through Pseudo-Evidentiality Training ACL 2021 [TODO]

11.Numerical Reasoning

在DROP数据集上的一些研究,主要要求模型具有计数,数学运算等能力。

序号 论文 发表会议 备注
0 DROP: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs NAACL 2019 DROP 答案不一定出现在原文中 需要通过计算、计数等操作得到 每个QA对都有一个对应的paragraph
1* Numnet: Machine reading comprehension with numerical reasoning EMNLP 2019 DROP 从context中构建一个异质有向图出来,结点都代表context中出现的数字,分为两类:在问题中出现的数字与在段落中出现的数字。边也分为两类,根据数字间的大小关系进行连接,两类边刚好互补。
2* A Multi-Type Multi-Span Network for Reading Comprehension that Requires Discrete Reasoning EMNLP 2019 [TODO] 没NumNet
3* Giving BERT a Calculator: Finding Operations and Arguments with Reading Comprehension EMNLP 2019 [TODO] 没NumNet
4* Injecting Numerical Reasoning Skills into Language Models ACL 2020 [TODO] 没NumNet
5* Question Directed Graph Attention Network for Numerical Reasoning over Text EMNLP 2020 no-OpenDROP上的工作,所以自然不用多次检索,每个QA对给定了一个paragraph。建立了一个异质图,结点有:数字(八大类型)、实体,边有:相同类型的数字之间的边以及数字和实体在一句话内共现的边。主要的idea就是在图上引入了数字的类型以及与数字相关的实体,是针对于NumNet的改进
6 Neural module networks for reasoning over text ICLR 2020 non-Open NMN在DROP上的工作,设计了10个模组
7* Neural Symbolic Reader: Scalable Integration of Distributed and Symbolic Representations for Reading Comprehension ICIR 2020 [TODO] 没NumNet
8 Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models arXiv 2020 non-OpenDROP上的工作,也可以用于HotpotQA,两个模组next-question generatorQA model

(*代表仅属于本分类下的工作)

12.与其他任务相关联

序号 论文 发表会议 备注
1 Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction ACL 2019 多跳阅读理解抽取式文本摘要以及文本蕴含 可解释性研究,受抽取式文本摘要的灵感,提出了QFE(Query Focused Extractor)模型。创新度不是很高,和原始的HotpotQA baseline挺像的。只不过多了一个支撑句预测层,该层就是他设计的QFE模型
2 Repurposing Entailment for Multi-Hop Question Answering Tasks NAACL 2019 Textual entailment OpenBookQAMultiRC 使用文本蕴含模型来完成多跳推理问答,模型分为两部分:相关句提取与信息聚合。相关句提取对每个候选句计算其蕴含假设(由答案和问题构成)的概率,这些概率表示每句的重要程度。信息聚合则利用上一步计算的概率为不同的句子聚合表示,最后再通过一个文本蕴含模型得到最终的蕴含概率。
3 A Unified MRC Framework for Named Entity Recognition ACL 2020 [TODO]
4 Multi-hop Inference for Question-driven Summarization EMNLP 2020 [TODO]
5 Coreference Reasoning in Machine Reading Comprehension arXiv 2020 研究MRC模型的共指消解能力,已有的数据集例如:DROPDuoRCMultiRC等都需要MRC模型需要共指消解的能力才能很好的推理出答案,Quoref数据集是专门用于评估MRC模型能力的数据集,作者研究发现该数据集并不能够很好的反应出真实场景中的共指消解问题,因此设定了一些规则让标注员基于Quoref数据集中的文章,标注了200个更具有挑战性的QA对,以此来更好地检测模型的共指消解能力。除此之外,作者在训练MRC模型的时候,使用到了共指消解数据集进行转换后的数据以此来增强MRC模型的共指消解能力。
6 A Joint Training Dual-MRC Framework for Aspect Based Sentiment Analysis AAAI 2021 [TODO]
7 Read, Retrospect, Select: An MRC Framework to Short Text Entity Linking AAAI 2021

13.OBQA

这个模块主要总结一下在OpenBookQA上的已有工作

序号 论文 发表会议 备注
1 Careful Selection of Knowledge to Solve Open Book Question Answering ACL 2019 一个比较复杂的工作,先基于问题产生hypothesis,再基于hypo检索相关fact,利用fact以及hypo之间的差异去检索missing knowledge。接着根据fact以及missing knowledge去综合为每个候选选项打分,最终分数高的为答案选项。可以看出该篇工作设计的流程较为复杂,达到了6个modular,取得的效果也一般,在OBQA测试集上达到了72的acc
2 Enhancing Pre-Trained Language Representations with Rich Knowledge for Machine Reading Comprehension ACL 2019 只有related work部分有用,总结的挺好的
3 Improving Question Answering with External Knowledge MRQA@EMNLP 2019 本文主要利用了无结构化的外部知识(wikipedia)来提升OBQA的效果,设定了不同的方法来吸收open-domain(wiki)与in-domain(其余数据集)中的sentences与corpus中检索得到的sentences,一起输入至模型,并预测答案,在OBQA测试集上达到了68的acc
4 KagNet: Knowledge-Aware Graph Networks for Commonsense Reasoning EMNLP 2019 一篇非常有借鉴意义的工作,虽然是在CommonsenseQA上的工作,但其提出的框架已经被利用在不同的常识QA中了。首先根据QA对建立schema graph,再利用GCN更新图中结点的表示,之后利用LSTM去编码不同的路径信息,再使用attention机制综合所有路径的信息得到graph vector,最终使用graph vector来计算QA对的成立概率。
5 What’s Missing: A Knowledge Gap Guided Approach for Multi-hop Question Answering EMNLP 2019 idea是:可以检测到的fact与候选答案之间存在gap。对于一个问题,检索到fact之后,对fact进行key span预测,基于key span会去ConceptNet以及ARC Corpus中检索缺失的知识,再进行QA。标注了key span以及gap类型信息,在训练的过程当中进行多任务学习:gap类型预测以及答案预测。最终在OBQA测试集上达到了64.41的acc
6 Learning to Explain: Datasets and Models for Identifying Valid Reasoning Chains in Multihop Question-Answering EMNLP 2020 OBQA部分数据的基础上人工添加了推理链形成eOBQA数据集
7 Scalable Multi-Hop Relational Reasoning for Knowledge-Aware Question Answering EMNLP 2020 CommonQA 提出了一种结合GNN与关系路径编码的知识推理与获取知识表示的方式。先抽取知识路径,再利用改进后的GNN在路径上进行信息传播。
8 Connecting the Dots: A Knowledgeable Path Generator for Commonsense Question Answering EMNLP 2020 Findings 图2部分介绍了KG增强的QA模型框架,本文主要工作在于,已有的常识库,例如ConceptNet比较稀疏,可能仍然不能够填充从问题到正确答案的推理链,所以作者干脆直接在问题和答案中生成一条推理路径,这样的推理路径可能是KG中所没有的,以此来解决这个问题。其中生成推理路径的数据集是在KG上通过随机游走的方式得到的,并利用GPT2训练了一个路径生成模型。在OpenBookQA上达到了80.05(±0.68)
9 UnifiedQA: Crossing Format Boundaries With a Single QA System EMNLP 2020 Findings OBQA SOTA模型,87.2acc。将所有形式的QA问题(抽取式、生成式、多选式等)统一,利用一个模型来解决。训练模型时用了8个数据集共同训练,每个训练的batch都包含了相同个数个来自不同数据集的训练sample,使用到的是T5模型。
10 Do Transformers Dream of Inference, or Can Pretrained Generative Models Learn Implicit Inferential Rules? EMNLP Workshop 2020 简单的看了一下这篇工作,现有的一些预训练语言模型虽然在QA问题方面产生了良好的表现,但却拥有非常差的可解释性,本文以T5为例,在QASC数据集上进行了探索,研究预训练语言模型是否具有良好的推理性能,设定的任务为:给定premise statements,让模型生成combined statement(和QASC模型的标注过程有关)。最终的结论显示,PTM能完成一些简单的推理,但当问题比较复杂时,贴进真实世界时以及需要尝试时,模型的表现效果并不好。
11 Improving Commonsense Question Answering by Graph-based Iterative Retrieval over Multiple Knowledge Sources COLING 2020 在多个知识库(ConceptNetWikipedia以及Cambridge Dictionary)中进行常识的捕获,基于图的迭代式检索,根据初始化结点(利用问题和候选答案中的concept作初始化结点)以及缩小范围化的关系在ConceptNet上迭代式得产生结构化图,在Wikipedia上进行相似度计算并保留top10文本(句子级),其中问题和候选答案中的concept均会在Cambridge Dictionary中查找相应的解释并拼接在后面。消融实验证明了这三个知识库都起到了作用。在CommonseQA上进行了验证。
12 Designing Templates for Eliciting Commonsense Knowledge from Pretrained Sequence-to-Sequence Models COLING 2020(short) 设计模板,利用预训练语言模型当中捕获的隐式知识来完成多跳推理,选用了T5语言模型,将多项选择问题建模成NLI(自然语言推断)问题,设计模板将原问题和答案拆分成前提与假设,判断是否能通过前提来推断出假设。在OBQA的测试集上达到了83.2的acc
13 Learning Contextualized Knowledge Structures for Commonsense Reasoning arXiv 2020 是对Connecting the Dots那篇的一个改进,提出了Hybrid Graph Network,指出现有的一些工作基本都利用了KG来完成常识推理,可是KG是稀疏的,可能会存在着一些关系的缺漏,从而导致最终的效果不太理想。Connecting the Dots那篇文章中,会对任意两个Concept生成一条伪路径,但如果两个Concept相距过长,则生成的伪路径并不可靠,也很难用已有的预定义关系集合来描述长距离的两个Concept,除此之外,在ConceptNet上抽取得到的fact与生成出的fact,可能与context(question and candidate answer)的中心主题不一样,这些都限制了模型的表现。因此本文提出了HGN,这个方法会在所有的question mentioned concept与所有的answer mentioned concept之间建立一个全连接的图,然后如果ConceptNet中存在的关系,则用ConceptNet上学习到的关系表示来初始化边,如果不在,则先利用路径生成(也是基于GPT2,并在推理阶段固定GPT2的参数)方法产生表示,再将表示进行维度变换操作,以得到最终表示。接着在图上利用GNN的一个变体更新表示,并在最后基于注意力机制聚合全图信息,最终预测出question-candidate answer的概率。目前已开源,在OBQA测试集上达到了80.0的acc。内置OBQA Leaderboard
14 Knowledge Fusion and Semantic Knowledge Ranking for Open Domain Question Answering arXiv 2020 挺特别的一个工作,没有使用KG在OBQA测试集上达到了80.0的acc,信息检索部分,知识库使用的是OBQAQASC以及ARC三个数据集中自带的非结构化文本知识。检索采用了Elasticsearch(一个基于Lucene的搜索引擎),检索本身采取了二次检索的方案,第一步使用question+answer(candidate)来检索,第二步使用第一步检索的fact与第一步query之间的差集来检索。二次检索完后,使用了基于BERT的相似度计算模型,其实就是一个rerank,最后在知识融合的QA模型里(融合指的是检索到的知识与预训练语言模型本身蕴含的知识)利用了(1)[CLS_Ai] Ui Q [SEP] Ai [SEP] (2)[CLS_C] Q [SEP] A1 ... [SEP] C [SEP],获得对应的CLS token embedding,其中Ui代表与候选答案Ai相关的fact,C代表与问题本身相关的,所有候选答案都共用的fact(一开始使用了分类模型,将每一个fact分成了这两类),最后利用[CLS_Ai]与[CLS_C]共同计算答案Ai的概率。
15 Context Modeling with Evidence Filter for Multiple Choice Question Answering arXiv 2020 该文基于对OpenBookQA的观察,针对于支撑句提出了两个假设:(1)如果一个句子与四个选项的关联度都差不多,那么这个句子很有可能对推理答案没有用。(2)如果一个句子与一个选项的关联度高,而与其余的选项关联度低,那么该句很有可能是支撑句。以往的工作都是将不同的选项进行独立判断,所以没有使用到这两个启发式的假设。作者提出的模型中先独立的抽取了支撑句,然后根据支撑句与其余选项的关联进行调整以得到最终的支撑句。由于本文没有使用任何外部知识(例如ConceptNet)所以效果自然不好,在OpenBookQA测试集上仅达到了65.6的acc
16 Benchmarking Knowledge-Enhanced Commonsense Question Answering via Knowledge-to-Text Transformation AAAI 2021 [TODO]
17 Understanding Few-Shot Commonsense Knowledge Models arXiv 2021

14.Information Retrieval

因为许多数据集要面临检索过程,例如open-domain question answering,本部分记录一下自己看到过的主要在做检索工作的文章。

序号 论文 发表会议 备注
1 The Probabilistic Relevance Framework: BM25 and Beyond 2009 BM25,传统信息检索的结晶,直接用Lucene Java Implementation即可
2 Multilingual Universal Sentence Encoder for Semantic Retrieval ACL 2020 提出了USE-QA,是一个基于transformer的信息检索系统,效果算是基于transformer的深度语义检索中比较好的。
3 Dense Passage Retrieval for Open-Domain Question Answering EMNLP 2020 陈丹琦与민세원,提出了一个基于BERT的检索系统DPRrepo),在OpenQA场景下超越了传统IR(BM25TFIDF),采用的方法也比较简单,对所有语料库中的passage进行编码,对于一个问题,用另一个编码器进行编码,之后使用MIPS算法计算top-k passage作为检索结果。为了使得问题编码后的向量与其相关的passage之间的内积尽可能的大,对两个编码器(用了两个独立的BERT)进行了训练,在负采样上使用了一些技巧。
4 Using the Hammer Only on Nails: A Hybrid Method for Evidence Retrieval for Question Answering arXiv 2020 提出了一个混合的检索系统,综合了BM25(传统的信息检索方法)和USE-QA(基于transformer的信息检索方法)。出发点是由于基于transformer的信息检索方法忽略了词表面token overlap的这一有效信号,所以想让两种方法进行结合。结合的方法其实非常简单,就是对一个query,先利用传统IR检索系统(例如BM25)进行检索,得到的top分值如果大于一个阈值,则相信检索结果,若小于该阈值,则选择不相信传统IR的检索结果,转而使用基于transformer的检索系统。
5 Differentiable Open-Ended Commonsense Reasoning arXiv 2020 林禹臣,提出了开放式常识推理任务,以往的常识推理数据集大多都是候选答案式的,但这样的设定离真实场景还有距离。修改了原有的数据集,并提出了DrFact模型,可以在文本语料库上进行可微的多跳推理。其中使用到了GenericsKB知识语料库
6 Learning Dense Representations of Phrases at Scale arXiv 2020 陈丹琦,一个phrase级别的信息检索工作,旨在为大量的phrase学习到一个稠密的表示,本文提出的方法DensePhrase卖点在于速度快,其准确度方面和DPR之间存在一点差距。为了学习到稠密的phrase表示,对于每一个候选phrase都会利用QG模型生成一个问题,以此来训练。在训练过程当中,还是用了蒸馏方法,在负采样方面也使用了一些技巧。
7 HopRetriever: Retrieve Hops over Wikipedia to Answer Complex Questions AAAI 2021 一个比较新颖的工作,和CogQA的思路有一点像,从已有文档上进行下一跳的检索,每次检索的单位就是hop,一个hop包含了一个超链接以及目标文档,将超链接通过mention左右加特殊符号的方式通过PTM获得表示,这里的表示就代表着从当前文档到下一文档的结构关系,而下一个文档中的非结构文本信息则直接与问题拼接并通过PTM获得,最后将这两部分信息融合,再来计算概率,选中概率最高的目标文档当做本次检索的结果。
8 Reader-Guided Passage Reranking for Open-Domain Question Answering arXiv 2021 rerank上的工作,号称不用任何训练就可以直接提升检索的概率(在rerank后) [TODO]
9 EfficientQA : a RoBERTa Based Phrase-Indexed Question-Answering System arXiv 2021 宣称在PIQA上达到了SOTA[TODO]
10 Generative Context Pair Selection for Multi-hop Question Answering arXiv 2021 以往在hotpotqa上的工作会先选取与问题相关的段落再进行答案预测。然而这些段落选取基本上都是基于RoBERTa模型为每一个paragraph预测概率,本文则通过T5来预测context pair的概率。除此之外,本来提出了一个新的方法来完成context pair的选取:模型先不根据问题选取context pair,再根据context pair生成问题。最后选取最容易生成question的context pair,比较有意思。这个方法选取到的paragraph比预测单个para的概率要好。

15.可解释性研究

序号 论文 发表会议 备注
1 Exploiting Explicit Paths for Multi-hop Reading Comprehension ACL 2019 WikihopOpenBookQA Open&non-Open 这篇工作主要的贡献在于多跳阅读理解的可解释性,为了在文本数据上达到多跳的效果,会有两种方法:GNN或者路径抽取,GNN可解释性非常差,因为它是隐式地完成信息传递。而路径抽取的方法解释性强,但如果跳数增多的话会有语义漂移问题。不过Wikihop或者OpenBookQA数据集都是两跳,所以好像不严重?然后作者就通过在问题中提取头实体,在候选答案中提取尾实体,然后在全部候选文档中抽取多个推理链,接着对推理链的实体做表示初始化然后隐式提取关系,再通过关系计算路径的表示。最后会对路径进行打分,然后根据分数得到最终的答案概率分布。我个人觉得这篇工作利用两个实体的表示去直接计算他们的关系表示这里有点粗糙了,因为两个实体之间可能存在着不止一种关系,而利用作者所给的式子则无法对这种多样的关系进行学习。
2 Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction ACL 2019 多跳阅读理解抽取式文本摘要以及文本蕴含 可解释性研究,受抽取式文本摘要的灵感,提出了QFE(Query Focused Extractor)模型。创新度不是很高,和原始的HotpotQA baseline挺像的。只不过多了一个支撑句预测层,该层就是他设计的QFE模型
3 R4C: A Benchmark for Evaluating RC Systems to Get the Right Answer for the Right Reason ACL 2020 R4C 给出半结构化的derivationHotpotQA数据集进行了标注,一共标注了约5K个实例,每个实例被标注了三个derivationR4C觉得Supporting Sentence是一个非常粗粒度的概念,因为一句Supporting Sentence里面可能有些内容并不是推理答案所必须的,而另一部分是必须的,因此作者标注了更加细粒度的derivation,这是一种半结构化的形式来表达推理信息,比Supporting Sentences更加有挑战性,也对模型的可解释性要求更高。
4 Learning to Explain: Datasets and Models for Identifying Valid Reasoning Chains in Multihop Question-Answering EMNLP 2020 eQASCeQASC-perturbed以及eOBQA Textual entailment 多选式 这个工作其实是在研究多跳推理问题的可解释性。在QASC数据集的基础上,针对于每个问题又标注了多个推理链(有效或无效都有)构成了eQASC,接着又将推理链模板化(使推理链更加通用)构成了eQASC-perturbed数据集,最后为了进行out-domain test,也基于OpenBookQA数据集标注了推理链形成了eOBQA并进行测试
5* Unsupervised Explanation Generation for Machine Reading Comprehension arXiv 2020 可解释性研究,崔神新作,在MRC中通过无监督的方式来让模型输出推理所需的句子。只有少数的数据集有支撑句标注信号,例如HotpotQA,大量的数据集上都没有这样的支撑句监督信号,所以作者基于假设:系统可以使用原有上下文中的少量信息来达到和原来推理类似的结论 设计了循环动态门控机制(Recursive Dynamic Gating)。在模型的整体框架方面,采用了知识蒸馏的部分思想,分为Teacher模型和Student模型,其中Teacher模型接受原有问题、候选答案以及上下文来学习预测答案,而Student模型则意旨用更少量的上下文信息也能够达到和Teacher模型类似的效果。最终使用Teacher模型来预测答案,用Student模型来预测支撑句。那么如何使用更少量的信息呢?这里就用到了循环动态门控机制,该机制可以使BERT类模型(在本文中采用了ALBERT)中每一层transformer的输出在传递到下一层transformer中进行衰减。具体细节就不赘述了。在Loss方面使用了答案预测的loss,模型蒸馏的loss以及一个余弦相似度loss用来使模型更好的学习循环动态门控机制中的参数
6 ExpMRC arXiv 2021 可解释性研究,给SQuAD(英)、CMRC 2018(中)、RACE+(英)、C3(中)数据集标注了支撑句。
7 SuQA EMNLP 2021 为多跳阅读理解问题生成简短的解释,使用了summarization。

(*代表仅属于本分类下的工作)

16.KD

知识蒸馏,vanilla 知识蒸馏是训练student model来拟合teacher model result的过程,teacher model一般是一个集成的大型复杂精密的系统,而student则是一个轻量级的模型,所以这其实是一个模型压缩的过程。最终的student模型理当拥有和teacher模型差不多的效果。后续的研究也探索了将 teacher模型学习到的一些中间表示 加入到student模型的训练过程当中来充当附加监督信号,在student训练的loss中占据一席之地,来帮助student模型取得更好的效果。本节内容面向整个阅读理解领域。

16.1 关于BERT的知识蒸馏:

序号 论文 发表会议 备注
1 DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter NIPS 2019 Hugging Face出品,student model跟BERT的总体结构差不多,只不过去除了token type embeddingspooler,并且减少了层数。最终的模型是66M。
2 TinyBERT: Distilling BERT for Natural Language Understanding EMNLP 2020 Findings 设计了针对于基于transformer的模型的蒸馏方式:(1)Transformer-layer Distillation:包含多头注意力机制的蒸馏以及隐层表示的蒸馏。(2)Embedding-layer Distillation:对于embedding look up的蒸馏。(3)Prediction-layer Distillation:对于输出分布的蒸馏。student的模型结构是M层transformer,teacher model的结构是N层transformer。在TinyBERT的学习过程中,分为general distillation以及task-specific distillation两个阶段。

多说一句,这两个其实都是BERT的压缩工作,知识蒸馏(knowledge distillation)是模型压缩的一大手法,除此之外还有quantization以及weights pruning压缩方法。其余的BERT压缩工作还有:ALBERTBinaryBERT等。

16.2 阅读理解中的知识蒸馏:

序号 论文 发表会议 备注
1 Attention-Guided Answer Distillation for Machine Reading Comprehension EMNLP 2018 第一篇在MRC场景下探索知识蒸馏的工作,作者分别在MRC场景下探索了vanilla knowledge distillationanswer distillation以及attention distillation,其中vanilla kd就是让student model来拟合teacher model的predict span,answer distillation是为了解决biased distillation问题(如果teacher模型预测出错,那么学生模型很有可能在错误的答案上拥有更高的confidence),为此在teacher预测结果中取top k答案,然后将每一个答案与gold answer对比,选取与gold answer无overlap的概率最高预测答案为confusing anwer,然后在训练的过程当中强制学生模型也来预测confusing answer的边界。即对每一个token,预测四个值:gold anwer 开始概率、gold answer结尾概率、confusing answer开始概率、confusing answer结尾概率。attention distillation则是用于对齐老师模型和学生模型的中间attention分布,相当于使用老师模型的中间表示来额外监督学生模型的训练。
2 An Iterative Multi-Source Mutual Knowledge Transfer Framework for Machine Reading Comprehension IJCAI 2020 同样也使用到了知识蒸馏的思想,只不过想要解决的问题是,domain-specific的阅读理解模型,有很多domain的数据量十分有限,因此我们系统能够通过其他domain的数据以及训练出的模型来帮助target domain的MRC表现效果。于是作者设计了一个模型,可以让其余领域的数据以及模型在target domain的训练过程中,以知识蒸馏的方式参与进来,并且不同领域之间的相似度不同,在迭代的过程中也逐步探索了不同领域之间的共享知识程度,从而达到不错的效果。
3 Cross-lingual Machine Reading Comprehension with Language Branch Knowledge Distillation COLING 2020 [TODO] 在cross lingual的角度下,通过知识蒸馏的方式提升低资源语言阅读理解的表现。
4 Model Compression with Two-stage Multi-teacher Knowledge Distillation for Web Question Answering System WSDM 2020 先利用搜索引擎以及teacher models创造大量的伪标签QA数据集,然后预训练student model,之后利用多对一(多个teacher对一个student)来在下游任务上训练,训练时使用golden label以及soft label,多对一可以解决biase问题。
5 Improving Multi-hop Knowledge Base Question Answering by Learning Intermediate Supervision Signals WSDM 2021 在KBQA问题中,已有数据集对模型的监督信号仅仅只有answer,而缺乏KG上的路径监督,因此本文借助知识蒸馏的思想,训练一个teacher模型产生在KG上多跳推理时的中间实体分布概率,在teacher模型收敛后,将teacher模型预测出的中间实体分布当做伪/软标签加入到student模型的训练当中,来帮助student模型在任务上有更加出色的表现。

17.rerank

rerank机制是指在QA/MRC任务中,先利用模型获得候选答案集合,再根据一些更加细粒度的特征,对所有候选答案重新进行排序,以此来得到准确率更高的答案。

序号 论文 发表会议 备注
1* Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering ICLR 2018 当时验证的数据集中,ground truth答案会出现在多个evidence sentences中,作者的rerank设计主要思想是:(1)strength-based re-ranking:某候选答案出现的次数越多,包含候选答案的支撑句出现的次数越多,证明该候选答案的概率越大。(2)coverage-based re-ranking:包含候选答案的多个支撑句对问题的覆盖情况,如果覆盖的越全面,那么该候选答案的概率越大。
2* RankQA: Neural Question Answering with Answer Re-Ranking ACL 2019 为获选答案人工设定了非常多的特征,然后利用一个两层的前馈网络,输入候选答案的所有特征,输出候选的答案的概率。训练reranker时采用pair-wise ranking loss。
3 Multi-Step Inference for Reasoning Over Paragraphs EMNLP 2020 non-OpenROPES上进行了验证,设计了三个模组:SelectChain以及Predict,最后对candidate span进行了rerank
4* Towards Confident Machine Reading Comprehension arXiv 2021 使用了Gradient Boosted Machine思想,训练了一个弱学习器为regression tree的集成学习模型。也是人工设定了非常多且复杂的特征来对候选答案进行重排序。
5* Model Agnostic Answer Reranking System for Adversarial Question Answering EACL 2021 Workshop 在对抗QA场景下,对QA模型预测出的候选答案span进行rerank,参考的依据是候选答案所在候选句与问题中所有实体word之间的overlap。其rerank部分非常简单。

(*代表仅属于本分类下的工作)

18.Multilingual

序号 论文 发表会议 备注
1 A Multilingual Modeling Method for Span-Extraction Reading Comprehension arXiv 2021 CMRC 2018中文阅读理解数据集上达到了SOTA,对一个给定的目标语言(中文)<问题,段落>对,将其翻译为英语与日语,并通过MBERT分别编码这三个语言的同一个<问题,段落>对,最后进行特征融合,并基于最终的表示预测答案区间。
2 Towards More Equitable Question Answering Systems: How Much More Data Do You Need? ACL 2021 short 是一篇专注于如何提升稀缺语言上的QA任务表现的论文,做了很多对比实验。(1)Zero Shot:在高资源语言上训练mBERT并在低资源语言上直接测试;(2)Few Shot:在高资源语言上训练mBERT并在低资源语言数据上进行少量的fine-tuning;(3)翻译增强1:将高资源语言数据集整个翻译成低资源的语言,并利用翻译后的数据训练模型,并在最终的低资源数据集上测试结果。(4)翻译增强2:将高资源数据集中的问题翻译成低资源语言,上下文和答案不变,然后训练mBERT,再在低资源语言数据集上测试效果。(5)翻译增强+few shot:前面的方法的结合,结合后的方式达到了最好的效果。

19.Code

序号 论文 发表会议 备注
1 CoSQA ACL 2021 CosQA是一个代码问答数据集,有20604个查询-代码对
2 CoDesc ACL 2021 Findings 提出了一个大规模的自然语言-Java语言对数据集CoDesc,可以用来提升下游任务,例如Code Summarization或者Code Search
3 Reading StackOverflow Encourages Cheating: Adding Question Text Improves Extractive Code Generation ACL 2021 NLP4Prog [TODO]
4 Energy-Based Models for Code Generation under Compilability Constraints ACL 2021 NLP4Prog [TODO]

[PLAN]

论文 发表会议 备注
Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings ACL 2020 KGQA
Query Graph Generation for Answering Multi-hop Complex Questions from Knowledge Bases ACL 2020 KBQA/KGQA
Adapting Meta Knowledge Graph Information for Multi-Hop Reasoning over Few-Shot Relations ACL 2019 KGQA
Quick and (not so) Dirty: Unsupervised Selection of Justification Sentences for Multi-hop Question Answering EMNLP 2019 ARCMultiRC 提出了一种无监督的支撑句选取方法,基本思路是最大化选取句子的相关度,最小化选取supporting fact的overlap以及最大化问题和答案的覆盖度。
Differentiable Reasoning over a Virtual Knowledge Base ICLR 2020 HotpotQA上效果不是很好,主要在MetaQA达到了比较好的效果,让模型在纯文本的语料库上也能够模仿在知识库上做检索。所以是Virtual Knowledge Base
Multi-step Retriever-Reader Interaction for Scalable Open-domain Question Answering ICLR 2019 [TODO]
Question answering as global reasoning over semantic abstractions AAAI 2018 [TODO]

A.Leaderboard of HotpotQA

A.1 ANS (distractor setting)

模型 对应论文 所属类别 EM(Test) F1(Test) EM(dev) F1(dev) TOP
QUARK (arXiv 2020) 2.1 (1) - - 67.75 81.21 TOP-3
DFGN (ACL 2019) 3.2 (2) 56.31 69.69 - -
KGNN (arXiv 2019) 3.5 (2) 50.81 65.75 - -
HGN (EMNLP 2020) 3.6 (2) 69.22 82.19 - - TOP-1
C2F Reader (EMNLP 2020) 3.7 (2) 67.98 81.24 - - TOP-2
SAE (AAAI 2020) 3.8 (2) 66.92 79.62 67.70 80.75 TOP-4
ICLR 2020 5.7 (4) - - 81.2 68.0
DECOMPRC (ACL 2019) 6.2 (5) - 70.57 - -
Unsupervised (EMNLP 2020) 6.5 (5) 66.33 79.34 - 80.1 TOP-5
TheirNMN (EMNLP 2019) 7.1 (6) 49.58 62.71 50.67 63.35
MODULARQA (arXiv 2020) 7.4 (6) - - - 61.8

A.2 ANS (fullwiki setting)

模型 对应论文 所属类别 EM(Test) F1(Test) TOP
QUARK (arXiv 2020) 2.2 (1) 55.50 67.51 TOP-4
KGNN (arXiv 2019) 3.5 (2) 27.65 37.19
HGN (EMNLP 2020) 3.6 (2) 59.74 71.41 TOP-3
MUPPET (ACL 2019) 4.2 (3) 31.07 40.42
whole pip (EMNLP 2019) 4.3 (3) 45.30 57.30
DDRQA (arXiv 2020) 4.6 (3) 62.9 76.9 TOP-1
CogQA (ACL 2019) 5.2 (4) 37.1 48.9
GOLDEN (EMNLP 2019) 5.6 (4) 37.92 48.58
ICLR 2020 5.7 (4) 60.0 73.0 TOP-2
Transformer-XH (ICLR 2020) 8.1 (7) 51.6 64.1 TOP-5

A.3 所属类别及入选TOP数量:

(1)基于单步阅读理解模型改进:1 (其中一个同时入选两个setting)
(2)基于GNN:3 (其中一个同时入选两个setting)
(3)迭代式文档检索:1
(4)推理链:1
(5)分解问题:1
(6)NMN:0
(7)PTM:1

Open Source Agenda is not affiliated with "Multi HopRC" Project. README Source: krystalan/Multi-hopRC

Open Source Agenda Badge

Open Source Agenda Rating